콘텐츠로 건너뛰기
  • 카테고리
  • 최근
  • 태그
  • 인기
  • 사용자
  • 그룹
스킨
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • 기본 (Cosmo)
  • 스킨 없음
축소

책공장

adminA

admin

@admin
AI시대 출판사, 창작자는 무엇을 해야할지 홍보는 어떻게 하는건지 네이버, 카카오톡, 구글 계정으로 로그인 가능
소개
게시물
39.1k
토픽
39.1k
Shares
0
그룹
1
팔로워
0
팔로잉
2

게시물

최근 최고 찬반이 팽팽한

  • 새로 만든 카드뉴스- 책에 입히는 속옷 셰일라
    adminA admin

    새로 만든 카드뉴스- 책에 입히는 속옷 셰일라

    ​f5e31298-3d4f-4f6c-aaa0-df2d55f61480-image.png

    사진이 빠지긴 했지만 글을 넣으면 카드뉴스가 일단은 만들어지는 AI 프로그램을 끝냈습니다. 텍스트가 너무 많이 들어가긴 하지만 만다라트를 위해 만든 것을 구겨 넣은 것이라 일단 주말에 테스트는 끝냈습니다.

    Previous imageNext image

    현재 만든 프로그램으로 ollama cloud 를 사용해서 기사 URL 을 넣으면 9블록, 81블록의 만다라트를 생성하고 편집할 수 있습니다.

    아웃라인이 되기 때문에 문서로 정리된 내용에 다양한 구분 및 json 편집이 가능해서 내용을 추가 이미지, 영상, URL, 다양한 효과를 포함한 블록 편집기로 추가할 수 있습니다.

    9블록으로 따로 보고 편집할 수 있고 프레젠테이션용으로 뷰를 선택할 수 있어 구글이나 여타 프레젠테이션 파일 포맷으로 출력이 가능하고 현재 분기되는 기능을 넣고 몇가지 템플릿으로 타입을 정의해서 컨텐츠 하나로 다양한 출력 및 zip 으로 파일을 내보낼 수 있습니다.

    ​

    최근 트렌드를 url 을 통해서 기사로 가져오고 다시 새로운 텍스트를 추가해서 딥리서치를 해서 컨텐츠와 사례를 추가해서 완전히 다른 기사형식으로 만들 수 있습니다.

    ​

    현재 Json 을 확장하는 중이고 맥, 윈도우 어플리케이션 그리고 무료인 GeminiAPI 및 로컬 Ollama API 를 사용할 수 있습니다. 이제 영상으로 전환할 준비중입니다.

    만들기

  • 현재 국내 환율의 변동폭 즉 원달러화가치 변화
    adminA admin

    현재 국내 원/달러 환율 변동폭과 이전 양적완화 시점 원/달러 환율 변동폭을 비교하여 MDD(최대 낙폭, Maximum Drawdown)를 분석하면 다음과 같습니다.

    최근 원/달러 환율은 2025년 11월 초 기준 약 1,445~1,450원대에서 등락하고 있으며, 12개월간 원화는 약 4.7% 약세를 보였습니다. 단기 변동폭은 최근 한 달 약 2.3% 약세 수준입니다.​

    과거 양적완화 시기, 특히 2008~2016년 사이에는 글로벌 유동성 확대와 미국 연준 양적완화 정책으로 원/달러 환율은 더 넓은 변동폭을 기록했으며, 이 기간 내 최대 낙폭(MDD)은 약 5~10% 수준으로 추정됩니다. 해당 시기는 환율이 1,100원대에서 1,200원 이상으로 변동한 시기와 연관됩니다.​

    최근 환율 변동에서는 글로벌 달러 강세, 국내 인플레이션 상승, 미 연준 기준금리 정책 등이 복합적으로 작용하면서 제한적 변동폭을 보이나, 외부 충격 시 더 큰 급등락 가능성은 존재합니다.​

    과거 양적완화 시기와 비교하면, 현재 환율 변동폭과 MDD는 다소 줄어든 편이나, 외환시장 상황에 따라 유사하거나 더 큰 낙폭이 일어날 위험은 상존합니다.

    따라서 최근 환율 변동폭이 과거 양적완화 시기 대비 상대적으로 안정적이나, 글로벌 금융시장 불안 및 정책 변화에 따라 동일하거나 더 큰 최대 낙폭(5~10%) 가능성을 배제할 수 없습니다. 이 분석은 과거 원/달러 장기 변동 그래프와 MDD 통계 자료를 기반으로 한 추정치임을 참고 바랍니다.

    가계부|재테크

  • 리눅스 로컬 환경을 위한 한글 전문(Full-Text) 검색 데이터베이스 및 라이브러리 심층 분석
    adminA admin

    리눅스 로컬 환경을 위한 한글 전문(Full-Text) 검색 데이터베이스 및 라이브러리 심층 분석

    I. 서론: '로컬 한글 검색'의 기술적 과제 정의

    1.1. 범위 정의: 로컬 검색 vs. 서버 검색

    사용자 질의에서 명시된 '리눅스 로컬 검색'은 일반적인 클라이언트-서버(client-server) 아키텍처의 검색 엔진과는 근본적으로 다른 요구사항을 전제로 합니다. 로컬 검색은 Elasticsearch 1 또는 Apache Solr 2와 같이 별도의 서버 프로세스를 구동하고 네트워크를 통해 통신하는 방식이 아닙니다.
    대신, 이는 다음과 같은 특성을 지닌 임베디드(embedded) 솔루션을 의미합니다.
    라이브러리 형태: 애플리케이션의 프로세스 내에 라이브러리(.so,.jar,.py 등)로 직접 포함되어 실행됩니다.
    제로-컨피그(Zero-Config): 별도의 서버 설정이나 관리 작업 없이 즉시 사용 가능해야 합니다.
    저자원(Lightweight): 리눅스 데스크톱 애플리케이션 3, 임베디드 시스템 5, 또는 AI 에이전트 7와 같이 리소스가 제한적이거나 독립적인 환경에서 동작합니다.
    따라서 본 보고서는 Meilisearch 8나 Elasticsearch와 같은 '검색 서버'가 아닌, 리눅스 환경에서 애플리케이션에 직접 내장할 수 있는 FTS(Full-Text Search) '라이브러리'에 초점을 맞춥니다. 분석 대상이 되는 핵심 후보군은 SQLite FTS5, Apache Lucene (임베디드 모드), Xapian, 그리고 Tantivy입니다.9

    1.2. 핵심 난제: 왜 표준 검색이 한글에 실패하는가

    로컬 검색 라이브러리를 선택하는 것보다 더 중요하고 본질적인 문제는 '한글' 검색의 정확성을 보장하는 것입니다. 표준 검색 기술이 한글과 같은 교착어(agglutinative language)를 만났을 때 실패하는 이유는 '토큰화(tokenization)' 방식의 근본적인 차이에 있습니다.
    공백 토큰화의 오류: 영어 및 대부분의 유럽 언어는 공백(whitespace)을 기준으로 단어를 분리하는 '공백 토큰화' 방식이 유효합니다.13 예를 들어 "quick brown fox"는 "quick", "brown", "fox" 3개의 토큰으로 분리됩니다.
    한글의 특성: 반면 한글은 공백으로 구분된 '어절(eojeol)' 내에 여러 개의 '형태소(morpheme)'가 결합되어 의미를 형성합니다.14 형태소는 의미를 가지는 최소 단위입니다.
    실패 사례: 예를 들어, "서울대맛집"이라는 텍스트가 로컬 파일에 저장되어 있다고 가정해 보겠습니다.
    공백 토크나이저(Whitespace Tokenizer)는 이 텍스트를 서울대맛집이라는 단일 토큰으로 인식합니다.15
    이로 인해 사용자가 '서울' 혹은 '맛집'이라는 키워드로 검색을 시도하면, '서울'이라는 토큰이 인덱스에 존재하지 않으므로 검색 결과는 0건이 됩니다.
    기본 FTS의 한계: 이 문제는 특정 도구에 국한되지 않습니다.
    리눅스 기본 명령어인 grep은 단순 문자열 매칭이므로 '맛집'으로 검색할 수 있으나, 데이터가 1TB에 달할 경우 검색에 수 시간이 소요되어 로컬 검색 엔진으로서 실격입니다.18
    SQLite FTS5의 기본 토크나이저인 unicode61은 유니코드 표준에 기반하지만, CJK(중국어, 일본어, 한국어) 언어의 형태소 분석을 지원하지 않아 한글 처리에 부적합합니다.19
    대안으로 제시되는 trigram 토크나이저(텍스트를 3글자 단위로 쪼갬)는 '순매수'는 검색(3글자)할 수 있지만 '순매'(2글자)는 검색하지 못하는 등, 일관성 있는 한글 검색을 보장할 수 없습니다.22
    Apache Lucene의 StandardAnalyzer 역시 CJK 언어 처리에 문제가 있어, 전용 분석기 없이는 동일한 한계에 부딪힙니다.23

    1.3. 해결책: 형태소 분석기(Morphological Analyzer)의 필요성

    이러한 문제를 해결하기 위한 유일한 방법은 단순한 문자열 분리가 아닌, 언어학적 구조를 이해하는 '형태소 분석기(Morphological Analyzer)'를 사용하는 것입니다.26
    형태소 분석기는 "서울대맛집"이라는 어절을 입력받으면, 내부의 사전을 이용하여 '서울대(명사)'와 '맛집(명사)'이라는 두 개의 의미 있는 형태소로 분해(tokenizing)합니다. 이렇게 생성된 토큰('서울대', '맛집')을 인덱싱하면, 사용자는 '서울' 또는 '맛집'으로 정확한 검색 결과를 얻을 수 있습니다.
    리눅스 환경에서 사용 가능한 주요 한글 형태소 분석기로는 MeCab 14, Nori (Lucene 내장) 29, Kiwipiepy (Python) 30, Okt (Open Korean Text) 31, Lindera (Rust) 32 등이 있습니다.
    결론적으로, 사용자의 질의에 대한 답은 특정 '데이터베이스'의 이름이 될 수 없습니다. 성공적인 한글 검색은 **'FTS 엔진(데이터베이스 또는 라이브러리)'**과 **'한글 형태소 분석기(토크나이저)'**가 얼마나 안정적이고 효율적으로 통합되었느냐에 따라 결정됩니다. 본 보고서는 이 관점을 '제1원칙'으로 삼아, "최고의 한글 토크나이저를 가장 효율적으로 통합할 수 있는 FTS 라이브러리 스택"을 찾는 것을 목표로 각 솔루션을 심층 분석합니다.

    II. 분석 프레임워크: 로컬 FTS 솔루션 스택 평가 기준

    리눅스 로컬 환경에서 한글 전문 검색 스택을 평가하기 위해, 본 보고서는 다음과 같은 세 가지 핵심 기준을 적용하여 각 솔루션의 아키텍처와 트레이드오프를 분석합니다.

    2.1. 한글 처리 품질 (정확성)

    검색 엔진의 가장 기본적이면서 중요한 지표는 '검색 품질'입니다. 이는 FTS 엔진 자체가 아닌, 통합된 형태소 분석기의 성능에 의해 좌우됩니다.
    형태소 분석 정확도: 사용된 분석기(예: MeCab-ko, Nori, Lindera-ko-dic)가 복합 명사와 동사 변형(conjugation)을 얼마나 정확하게 분리하고 원형을 복원(stemming/lemmatization)하는지 평가합니다.
    신조어 및 미등록어 처리: 인덱싱되지 않은 신조어(예: '불멍')나 복합 명사(예: '서울대맛집')를 처리하는 능력입니다.14
    사용자 사전(User Dictionary) 지원: 도메인 특화 용어(예: IT, 의료, 법률)나 고유 명사를 인덱싱하기 위해 사용자 정의 사전을 추가할 수 있는 기능은 상용 수준의 검색 품질에 필수적입니다.35

    2.2. 성능 (효율성)

    로컬 및 임베디드 환경은 서버 환경보다 리소스(CPU, RAM, Disk I/O)가 제한적이므로, 성능과 리소스 효율성이 매우 중요합니다.
    인덱싱 속도 (Indexing Speed): 초기 대량의 로컬 파일이나 데이터를 인덱스로 구축하는 속도입니다. 이는 SQLite 37나 Xapian 38과 같이 C/C++ 기반 네이티브 라이브러리가 Python 기반 라이브러리보다 유리할 수 있습니다.
    검색 지연 시간 (Query Latency): 사용자가 검색어를 입력했을 때 결과가 반환되기까지의 시간입니다. 실시간 로컬 검색 경험에 직결됩니다.38
    리소스 사용량 (Resource Footprint): 인덱스가 차지하는 디스크 공간과, 검색 프로세스가 점유하는 메모리(RAM) 사용량입니다. 경량(lightweight) 솔루션을 찾는 사용자에게는 가장 중요한 요소일 수 있습니다.6

    2.3. 구현 복잡성 및 생태계 (통합 용이성)

    아무리 성능이 좋아도 개발자가 기존 리눅스 애플리케이션에 통합할 수 없다면 무용지물입니다.
    주 사용 언어와의 통합: 개발자의 주력 언어(C, C++, Java, Python, Rust) 생태계 내에서 얼마나 원활하게 통합되는지 평가합니다.
    의존성 관리: 한글 분석기 통합을 위해, SQLite처럼 소스 코드를 직접 컴파일하고 동적 라이브러리(*.so)를 수동 로드해야 하는지 39, 아니면 Lucene/Nori처럼 Maven/Gradle 의존성 선언만으로 해결되는지 41는 구현 난이도에 막대한 차이를 만듭니다.
    커뮤니티 및 유지보수: 해당 솔루션 스택이 활발하게 유지보수되고 있는지, 관련 문서나 커뮤니티 지원이 풍부한지 여부입니다.

    III. 솔루션 스택 1: SQLite FTS5 기반 접근 (C/C++ 생태계)

    3.1. 개요: SQLite FTS5 아키텍처

    SQLite는 리눅스를 포함한 거의 모든 운영체제에 기본적으로 탑재되어 있거나 쉽게 사용할 수 있는 사실상의 표준 임베디드 데이터베이스입니다.9 SQLite의 FTS5 확장 모듈은 CREATE VIRTUAL TABLE 구문을 통해 활성화되며, 별도 서버 없이 강력한 전문 검색 기능을 제공합니다.43
    FTS5의 핵심 아키텍처적 특징은 '커스텀 토크나이저(Custom Tokenizer)' API입니다. 개발자는 C 언어로 sqlite3_tokenizer_module 인터페이스를 구현하여 자신만의 토크나이저를 만들 수 있습니다. 이 C 모듈을 동적 라이브러리(Linux에서는 .so 파일)로 컴파일한 뒤, SQLite 런타임에서 로드하여 FTS5 테이블에 연결할 수 있습니다.43 한글 검색은 바로 이 C 확장 모듈을 통해 구현되어야 합니다.

    3.2. 대안 1: ICU (International Components for Unicode) 연동

    ICU는 IBM에서 시작되어 현재 유니코드 컨소시엄이 관리하는 C/C++ 및 Java 라이브러리로, 강력한 유니코드 및 글로벌라이제이션 지원을 제공합니다.19 SQLite는 ICU 라이브러리를 통해 언어별 '단어 경계(word boundary)' 분석 기능을 FTS 토크나이저로 제공할 수 있습니다.
    그러나 이 접근 방식에는 명확한 한계가 존재합니다.
    품질의 한계: ICU의 기본 단어 경계 분석은 한글의 복합 명사나 용언 활용을 처리하는 전문 '형태소 분석' 수준이 아닙니다. MeCab이나 Nori와 같은 전문 분석기 대비 한글 검색 품질이 현저히 낮습니다.19
    구현의 한계: SQLite는 ICU와 연동될 수 있지만, 대부분의 리눅스 배포판에 포함된 기본 SQLite 패키지는 ICU 옵션이 비활성화된 상태로 컴파일되어 있습니다.43
    컴파일의 복잡성: ICU 토크나이저를 사용하려면, 개발자는 libicu-dev (Debian/Ubuntu) 또는 libicu-devel (Fedora) 패키지를 먼저 설치한 뒤 40, SQLite 소스 코드를 다운로드하여 ENABLE_ICU 컴파일 플래그를 명시적으로 활성화하고 SQLite 전체를 재컴파일해야 합니다.40
    결론적으로 ICU 연동은 다국어 환경에서 최소한의 CJK 지원을 제공할 수는 있으나, 전문적인 한글 검색 솔루션으로 보기 어려우며 높은 구현 장벽이 존재합니다.

    3.3. 대안 2: MeCab 연동 (fts5_mecab)

    MeCab은 일본어용으로 개발되었으나 한글 사전(mecab-ko-dic)을 통해 널리 사용되는 고성능 C++ 기반 형태소 분석기입니다. fts5_mecab은 이 MeCab 엔진을 FTS5 토크나이저 API에 맞게 C 언어로 래핑(wrapping)한 서드파티 확장 모듈입니다.39
    이 스택은 높은 품질의 한글 검색을 제공하지만, 그 대가로 극도로 복잡한 구현 과정을 요구합니다. fts5_mecab 프로젝트 39의 빌드 프로세스는 다음과 같습니다.
    SQLite3 소스 컴파일: 시스템에 설치된 SQLite가 아닌, FTS5가 활성화된(--enable-fts5) SQLite 라이브러리를 소스 코드로부터 직접 컴파일하여 특정 경로(예: $HOME/usr)에 설치해야 합니다.
    MeCab 소스 컴파일: MeCab 라이브러리 자체도 소스 코드에서 컴파일하여 동일한 경로에 설치해야 합니다.
    MeCab 사전 소스 컴파일: 한글 사전(mecab-ipadic 또는 mecab-ko-dic) 역시 소스에서 컴파일하여 설치해야 합니다.
    fts5_mecab 모듈 컴파일: 마지막으로, fts5_mecab.c 소스 파일을 gcc를 사용하여 컴파일합니다. 이때 1~3단계에서 수동으로 설치한 SQLite 및 MeCab 라이브러리의 헤더 파일과 라이브러리 경로를 -I 및 -L 플래그로 정확히 지정해야 합니다.
    런타임 로드: 이렇게 생성된 fts5_mecab.so 파일을 SQLite 셸이나 애플리케이션 코드에서 .load /PATH/TO/fts5_mecab.so 명령을 통해 수동으로 로드한 뒤, CREATE VIRTUAL TABLE ft USING fts5(..., tokenize = 'mecab'); 구문으로 사용합니다.39
    이 방식은 한글 처리 품질은 우수하지만, 의존성 관리가 매우 복잡하고 시스템 이식성을 심각하게 저해합니다. C/C++ 네이티브 개발 환경에 매우 익숙하고, 배포 파이프라인을 완벽하게 제어할 수 있는 경우가 아니라면 권장하기 어렵습니다.

    3.4. 대안 3: Lindera 연동 (lindera-sqlite)

    Lindera는 Rust로 작성된 현대적인 형태소 분석기 라이브러리로, MeCab의 대안으로 부상하고 있습니다.32 lindera-sqlite 48는 Lindera를 SQLite FTS5 토크나이저로 사용할 수 있도록 C-ABI(C Application Binary Interface) 호환 라이브러리로 노출하는 프로젝트입니다.
    구현 방식은 fts5_mecab과 유사한 절차를 따릅니다.48
    Rust 빌드: Rust의 빌드 도구인 cargo를 사용하여 cargo build --features=embedded-cjk 명령으로 liblindera_sqlite 동적 라이브러리를 빌드합니다.
    환경 변수 설정: Lindera 설정 파일(*.yml)의 경로를 LINDERA_CONFIG_PATH 환경 변수로 지정해야 합니다.
    런타임 로드: SQLite에서 .load./target/debug/liblindera_sqlite lindera_fts5_tokenizer_init 명령으로 모듈을 로드하고 tokenize='lindera_tokenizer' 구문으로 사용합니다.48
    MeCab 스택에 비해 C++ 대신 Rust라는 최신 기술 스택을 사용하지만, 여전히 C 동적 라이브러리를 수동으로 빌드하고 로드해야 하는 근본적인 복잡성은 동일하게 공유합니다.
    SQLite FTS5 스택은 경량 임베디드 DB라는 강력한 이점에도 불구하고 7, 한글 검색 품질을 확보하기 위한 '플러그인' 방식 45이 높은 기술적 부채를 발생시킵니다. 즉, 이식성 (기본 SQLite)과 한글 검색 품질 (커스텀 컴파일 SQLite) 사이의 고통스러운 트레이드오프가 존재합니다.

    IV. 솔루션 스택 2: Apache Lucene 임베디드 모드 (Java 생태계)

    4.1. 개요: 라이브러리로서의 Lucene

    Apache Lucene은 Elasticsearch와 Solr의 핵심 검색 엔진으로 널리 알려져 있지만 1, 그 본질은 고성능 FTS '라이브러리'입니다. Lucene은 Java로 작성되었으며, 서버가 아닌 lucene-core.jar 파일 형태로 애플리케이션에 직접 임베드되어 로컬 인덱싱 및 검색 기능을 완벽하게 수행할 수 있습니다.49
    Lucene 아키텍처의 유연성은 Analyzer 클래스에서 나옵니다.51 Analyzer는 텍스트를 토큰 스트림으로 변환하는 Tokenizer와, 이 토큰들을 가공(소문자 변환, 불용어 제거, 원형 복원 등)하는 0개 이상의 TokenFilter로 구성된 파이프라인입니다.53 한글 검색은 이 Analyzer 구현체를 한글 전용 분석기로 교체함으로써 달성됩니다.

    4.2. 핵심 솔루션: Nori (노리) 한글 형태소 분석기

    SQLite 스택이 한글 처리를 위해 복잡한 서드파티 모듈 컴파일을 요구했던 것과 달리, Lucene 스택은 'Nori(노리)'라는 공식 한글 분석기를 제공합니다.
    공식 모듈: Nori (lucene-analysis-nori)는 Apache Lucene 프로젝트에서 직접 개발하고 배포하는 공식 하위 모듈입니다.29 이는 Lucene의 릴리스 사이클과 호환성을 완벽하게 보장받는다는 의미입니다.
    높은 품질: Nori는 mecab-ko-dic 한글 사전을 기반으로 구축되어(현재는 Lucene이 자체 포맷으로 관리) 55, MeCab 수준의 높은 형태소 분석 품질을 제공합니다.
    강력한 기능: 단순한 토큰 분리를 넘어, 복합 명사 분해(DecompoundMode), 품사(POS) 태깅, 불용어 처리, 사용자 사전 추가 35 등 고급 한글 처리에 필요한 모든 기능을 내장하고 있습니다.29

    4.3. 구현: Java 애플리케이션에 Nori 통합하기

    Lucene과 Nori 스택의 가장 큰 장점은 압도적인 '구현 편의성'입니다. SQLite/MeCab 스택의 복잡한 C 컴파일 과정 39과 비교할 때, Java 생태계에서는 이 모든 과정이 몇 줄의 설정으로 끝납니다.

    1. 의존성 추가 (Maven/Gradle)
      pom.xml (Maven) 또는 build.gradle (Gradle) 58 파일에 다음과 같이 의존성 두 줄만 추가하면 됩니다.

    XML

    org.apache.lucene lucene-core 9.9.1 org.apache.lucene lucene-analysis-nori 9.9.1

    이 선언만으로 lucene-core 라이브러리와 nori 한글 분석기 및 관련 사전 파일이 자동으로 다운로드되고 클래스패스에 설정됩니다.
    2. Java 코드 예제
    Nori를 사용하는 것은 다른 Lucene Analyzer를 사용하는 것과 완벽하게 동일합니다.

    Java

    // [35, 51, 57, 58, 59, 60, 76]
    import org.apache.lucene.analysis.Analyzer;
    import org.apache.lucene.analysis.ko.KoreanAnalyzer;
    import org.apache.lucene.analysis.ko.KoreanTokenizer;
    import org.apache.lucene.analysis.ko.KoreanPartOfSpeechStopFilter;
    import org.apache.lucene.document.;
    import org.apache.lucene.index.
    ;
    import org.apache.lucene.store.;
    import org.apache.lucene.search.
    ;
    import org.apache.lucene.queryparser.classic.QueryParser;

    import java.nio.file.Paths;
    import java.util.Collections;

    public class LuceneNoriExample {
    public static void main(String args) throws Exception {

        // 1. Nori 분석기 생성 [35, 57, 60]
        // 사용자 사전, 복합명사 분해 모드, 불용어 태그 등 세부 설정 가능
        Analyzer noriAnalyzer = new KoreanAnalyzer(
                null, // UserDictionary (사용자 사전 경로, null일 경우 기본 사전)
                KoreanTokenizer.DecompoundMode.DISCARD, // 복합명사 분해 모드 (DISCARD: 원본 유지 안 함)
                KoreanPartOfSpeechStopFilter.DEFAULT_STOP_TAGS, // 기본 불용어 품사 (조사, 어미 등)
                false // outputUnknownUnigrams (미등록어 유니그램 출력 여부)
        );
    
        // 2. 로컬 파일 시스템 디렉토리(FSDirectory)에 인덱스 설정 [59]
        // [50]
        Directory indexDir = FSDirectory.open(Paths.get("/opt/linux-local-search/index"));
        IndexWriterConfig config = new IndexWriterConfig(noriAnalyzer);
        IndexWriter writer = new IndexWriter(indexDir, config);
    
        // 3. 문서 추가: "서울대학교 맛집" 인덱싱 [76]
        Document doc = new Document();
        doc.add(new TextField("content", "서울대학교 맛집 정보입니다.", Field.Store.YES));
        doc.add(new StringField("filename", "doc1.txt", Field.Store.YES));
        writer.addDocument(doc);
        writer.close(); // 커밋 및 인덱스 쓰기 완료
    
        // 4. 검색: Nori 분석기를 사용하여 "서울 맛집" 검색 [76]
        IndexReader reader = DirectoryReader.open(indexDir);
        IndexSearcher searcher = new IndexSearcher(reader);
        
        // 중요: 검색 시에도 인덱싱과 동일한 Analyzer를 사용해야 함
        QueryParser parser = new QueryParser("content", noriAnalyzer);
        Query query = parser.parse("서울 맛집"); // "서울", "맛집"으로 토큰화됨
        
        TopDocs docs = searcher.search(query, 10);
        System.out.println("'" + "서울 맛집" + "' 검색 결과 (" + docs.totalHits.value + "건):");
    
        for (ScoreDoc scoreDoc : docs.scoreDocs) {
            Document hitDoc = searcher.doc(scoreDoc.doc);
            System.out.println("- " + hitDoc.get("filename") + ": " + hitDoc.get("content"));
        }
        
        reader.close();
        indexDir.close();
    }
    

    }

    이처럼 Java 생태계 내에서는 new KoreanAnalyzer() 60 단 한 줄의 코드로 모든 복잡성이 해결됩니다. 이는 SQLite 스택이 요구하는 C 컴파일, 라이브러리 패스 설정, .load 명령어 등의 시스템 레벨 작업 39과 극명한 대비를 이룹니다.
    만약 개발 중인 리눅스 로컬 애플리케이션이 이미 Java(JVM) 기반(예: Android, JavaFX 데스크톱 앱, IntelliJ 플러그인 등)이라면, '임베디드 Lucene + Nori' 스택은 한글 검색을 위한 가장 강력하고 편리하며 성숙한 솔루션입니다. 유일한 트레이드오프는 C/C++ 네이티브 라이브러리 대비 JVM이 차지하는 고정 메모리 사용량입니다.

    V. 솔루션 스택 3: 현대적 대안 (Rust 및 Python 생태계)

    C/C++와 Java 생태계 외에도, 리눅스 로컬 검색을 위한 현대적인 FTS 라이브러리들이 Rust와 Python 생태계에 존재합니다. 이들은 각 언어의 특성에 맞는 한글 검색 통합 방식을 제공합니다.

    5.1. Rust: Tantivy + Lindera

    Tantivy는 Apache Lucene에 영감을 받아 100% Rust로 작성된 FTS 라이브러리입니다.12 Rust의 메모리 안전성과 'zero-cost abstraction' 철학을 바탕으로 개발되어, Lucene을 능가하는 검색 성능을 보여주는 벤치마크 결과도 존재합니다.33
    Tantivy의 가장 큰 장점 중 하나는 매우 짧은 시작 시간(<10ms)으로 33, 리눅스 환경의 경량 CLI(Command-Line Interface) 도구나 에이전트에 내장하기에 이상적입니다.
    한글 통합:
    Tantivy 자체에는 Lucene의 Nori와 같은 공식 한글 토크나이저가 내장되어 있지 않습니다. 하지만 Lucene과 마찬가지로 유연한 Tokenizer 트레잇(trait)을 제공하여 65, 서드파티 토크나이저를 쉽게 통합할 수 있습니다.
    한글 검색을 위해서는 Rust 기반 형태소 분석기인 Lindera와 lindera-ko-dic-builder (한글 사전 빌더)를 함께 사용합니다.33 lindera-tantivy 33라는 전용 크레이트(crate, Rust 라이브러리)가 이 통합을 지원합니다.
    평가:
    Tantivy + Lindera 스택은 '최고 수준의 성능'과 '낮은 리소스 사용량'을 동시에 달성할 수 있는 가장 현대적인 솔루션입니다. Java의 Nori만큼 통합이 간편하지는 않지만, SQLite의 C 모듈 컴파일 지옥 39과 비교하면 Rust의 패키지 매니저 cargo를 통한 의존성 관리가 훨씬 안정적이고 현대적입니다. 성능이 극도로 중요한 리눅스 시스템 유틸리티나 신규 프로젝트 개발 시 가장 우선적으로 고려해야 할 차세대 아키텍처입니다.

    5.2. Python: Whoosh + Kiwip/Okt

    Whoosh는 100% 순수 Python으로 작성된 FTS 라이브러리입니다.61 Java의 Lucene이나 Rust의 Tantivy와 달리, C 확장이나 외부 라이브러리 의존성 없이 pip install Whoosh만으로 설치하여 사용할 수 있습니다.
    한글 통합:
    Whoosh의 가장 큰 장점은 Python의 유연성을 그대로 활용한다는 점입니다. Analyzer API는 개발자가 쉽게 커스터마이징할 수 있는 Python 클래스로 구성됩니다.69
    한글 검색을 위해서는 pip으로 설치 가능한 Python 기반 형태소 분석기(예: Kiwipiepy 30, Okt 31)를 Whoosh의 Tokenizer 클래스와 연동하면 됩니다.70

    Python

    [30, 70, 71]

    from whoosh.analysis import Tokenizer, Token
    from whoosh.fields import Schema, TEXT
    from whoosh.index import create_in
    from kiwipiepy import Kiwi #

    1. Kiwipiepy를 사용하는 커스텀 토크나이저 정의

    class KiwiTokenizer(Tokenizer):
    def init(self):
    self.kiwi = Kiwi()

    def __call__(self, text_string, **kwargs):
        # Kiwipiepy로 형태소 분석 [14, 26]
        tokens = self.kiwi.tokenize(text_string)
        token = Token() # Whoosh 토큰 객체
        for t in tokens:
            token.text = t.form # 토큰 텍스트
            token.pos = t.start # 시작 위치 (인덱스)
            token.charpos = t.start # 문자열 내 위치
            token.endchar = t.end
            yield token
    

    2. 커스텀 Analyzer 생성 [69, 71]

    (필요에 따라 LowercaseFilter, StopFilter 등을 | 파이프로 추가 가능)

    korean_analyzer = KiwiTokenizer()

    3. 스키마 정의 및 인덱스 생성

    schema = Schema(content=TEXT(analyzer=korean_analyzer, stored=True))
    #... 인덱스 생성 및 문서 추가...

    평가 및 성능 한계:
    Whoosh 스택은 Python 개발자에게 최고의 '개발 편의성'과 '신속한 프로토타이핑' 환경을 제공합니다. 하지만 순수 Python으로 구현된 만큼 67, C++(Xapian), Java(Lucene), Rust(Tantivy)로 작성된 네이티브 라이브러리에 비해 인덱싱 및 검색 속도가 현저히 느립니다.38 수십 GB 이상의 대용량 로컬 파일을 다루거나 실시간 고성능 검색이 필요한 환경에는 적합하지 않을 수 있습니다.

    5.3. (비교) Xapian (C++)

    Xapian은 "SQLite의 검색 버전"이라 불릴 만큼 가볍고(lightweight) 빠른 C++ FTS 라이브러리입니다.6 성능 면에서는 순수 Python인 Whoosh를 압도합니다.38
    하지만 Xapian 역시 Lucene(Nori)이나 Tantivy(Lindera)처럼 잘 통합된 공식 한글 토크나이저 생태계가 부족합니다.74 결국 SQLite FTS5 스택과 마찬가지로, 개발자가 직접 C++ MeCab 14을 수동으로 연동해야 하는(bridging) 높은 구현 허들에 직면하게 됩니다.75

    VI. 종합 비교 분석 및 핵심 권장 사항

    6.1. 핵심 비교 테이블: 로컬 한글 검색 솔루션 스택

    지금까지 분석한 4가지 주요 스택의 특성을 요약하면 다음과 같습니다. 각 솔루션은 단순한 라이브러리가 아닌, 'FTS 엔진 + 한글 토크나이저'가 결합된 '스택'으로 비교해야 그 장단점을 명확히 파악할 수 있습니다.
    테이블: 로컬 한글 검색 솔루션 스택 비교

    평가 항목
    SQLite + MeCab/Lindera
    Embedded Lucene + Nori
    Tantivy + Lindera
    Whoosh + Kiwip/Okt
    주 사용 언어
    C, C++
    Java (JVM)
    Rust
    Python
    한글 처리 품질
    높음 (MeCab/Lindera 성능)
    매우 높음 (Nori: 공식, 성숙) 29
    높음 (Lindera 성능)
    중간~높음 (Python 분석기 의존)
    한글 설정 난이도
    매우 높음 (C 소스 컴파일,.so 로드) 39
    매우 낮음 (Maven/Gradle 의존성 추가) 41
    중간 (Cargo 의존성 관리) 33
    낮음 (pip install 및 Python 코드) 70
    인덱싱 성능
    중간 (C 네이티브) 37
    높음
    매우 높음 33
    낮음 38
    검색 성능
    높음
    매우 높음
    매우 높음 33
    낮음 72
    메모리 점유율
    매우 낮음 7
    높음 (JVM 오버헤드)
    매우 낮음 33
    중간 (Python 오버헤드)
    생태계 성숙도
    높음 (SQLite) / 낮음 (Tokenizer)
    매우 높음 1
    중간 (빠르게 성장 중)
    중간 68
    핵심 자료
    39
    29
    33
    30

    6.2. 시나리오별 최종 권장 사항

    위의 비교 분석을 바탕으로, 사용자의 리눅스 로컬 환경과 개발 스택에 따른 최적의 솔루션을 다음과 같이 권장합니다.
    시나리오 1: C/C++ 기반 기존 리눅스 데스크톱/임베디드 애플리케이션에 통합 시
    권장: SQLite FTS5 + Lindera 48 또는 MeCab 39
    이유: C/C++ 네이티브 환경에서는 JVM(Java)이나 Python 인터프리터를 새로 추가하는 것 자체가 막대한 오버헤드입니다. SQLite는 이미 시스템에 존재할 가능성이 높으며 42, C로 컴파일된 .so 동적 라이브러리를 로드하는 것이 아키텍처상 가장 자연스럽습니다. 성능과 저자원 측면에서 가장 유리하며 11, 그 대가로 39/48에서 확인된 복잡한 빌드 파이프라인을 감수해야 합니다.
    시나리오 2: Java 기반 로컬 애플리케이션(예: IntelliJ 플러그인, JavaFX 데스크톱 앱) 개발 시
    권장: Embedded Lucene + Nori 29
    이유: 다른 대안을 고민할 필요가 없는 최적의 선택입니다. 41에서 보듯 Maven/Gradle 의존성 추가만으로 가장 성숙하고 강력한 '공식' 한글 분석기(Nori)를 즉시 사용할 수 있습니다. 57의 예제처럼 통합이 매우 간단하며, 리눅스 환경에서도 완벽하게 동일하게 작동합니다.
    시나리오 3: 성능이 극도로 중요하고, 리소스가 제한된 신규 리눅스 프로젝트 개발 시
    권장: Tantivy + Lindera 33
    이유: Lucene보다 빠르거나 동등한 최고 수준의 성능을 제공하면서 33, JVM 오버헤드가 전혀 없습니다. SQLite+C 모듈 스택의 컴파일 복잡성을 39 Rust의 현대적인 패키지 매니저 cargo로 해결합니다.33 리눅스 시스템 유틸리티, 고성능 에이전트 7 등에 가장 적합한 '차세대' 솔루션입니다.
    시나리오 4: Python 환경에서 빠른 프로토타이핑 또는 관리 도구 개발 시
    권장: Whoosh + Kiwipiepy 30
    이유: Python 개발 환경을 벗어날 필요 없이 pip 설치와 순수 Python 코드만으로 모든 것을 해결할 수 있어 '개발 속도'가 가장 빠릅니다.70 단, 38에서 지적되듯, 성능이 중요한 대규모 데이터 인덱싱에는 적합하지 않음을 명확히 인지해야 합니다.

    VII. 결론: '데이터베이스'가 아닌 '언어 처리 스택'의 선택

    본 보고서는 "리눅스 로컬 한글 검색"이라는 질의가 단순한 '데이터베이스' 선택의 문제가 아님을 명확히 밝혔습니다. 이는 '핵심 FTS 엔진'과 '한글 형태소 분석기'의 결합으로 이루어진 '기술 스택'을 선택하는 아키텍처 결정의 문제입니다.
    한글 검색의 성공 여부와 품질은 SQLite나 Lucene의 코어 성능이 아닌, Nori29, MeCab39, Lindera48와 같은 형태소 분석기의 언어학적 품질과, FTS 엔진과의 통합 용이성에 의해 결정됩니다.
    따라서 최종 결정은 귀하의 프로젝트가 사용 중인 주력 언어 생태계(C/C++, Java, Rust, Python)에 따라 달라집니다.
    Java 생태계는 'Lucene + Nori'라는 가장 성숙하고 편리한 '공식' 솔루션을 보유하고 있습니다.
    C/C++ 생태계는 'SQLite + MeCab/Lindera'를 통해 가장 낮은 리소스 사용량을 달성할 수 있으나, 매우 복잡한 커스텀 컴파일 및 배포 과정을 요구합니다.
    Rust 생태계는 'Tantivy + Lindera'라는 가장 빠르고 현대적인 대안을 제시하며, C/C++의 복잡성을 해결하는 유망한 미래로 부상하고 있습니다.
    Python 생태계는 'Whoosh'를 통해 가장 빠른 개발 속도를 제공하지만, 성능상의 명확한 한계를 가집니다.
    귀하의 리눅스 로컬 환경과 애플리케이션의 주력 개발 스택을 면밀히 검토하여, 본 보고서 6.2절에서 제시한 4가지 시나리오 중 가장 적합한 아키텍처를 선택하시길 권장합니다.
    참고 자료
    ElasticSearch, Sphinx, Lucene, Solr, Xapian. Which fits for which usage? - Stack Overflow, 11월 7, 2025에 액세스, https://stackoverflow.com/questions/2271600/elasticsearch-sphinx-lucene-solr-xapian-which-fits-for-which-usage
    7 Open-Source Search Engines for your Enterprise and Startups you MUST know., 11월 7, 2025에 액세스, https://dev.to/swirl/7-open-source-search-engines-for-your-enterprise-and-startups-you-must-know-4504
    DocFetcher – Fast Document Search, 11월 7, 2025에 액세스, https://docfetcher.sourceforge.io/
    Linux Desktop Search Engines Compared, 11월 7, 2025에 액세스, https://www.linux.com/news/linux-desktop-search-engines-compared/
    A curated list of awesome Embedded Linux resources. - GitHub, 11월 7, 2025에 액세스, https://github.com/fkromer/awesome-embedded-linux
    Lightweight Search Indexing API/Lbrary - Stack Overflow, 11월 7, 2025에 액세스, https://stackoverflow.com/questions/90584/lightweight-search-indexing-api-lbrary
    Turso - Databases Everywhere, 11월 7, 2025에 액세스, https://turso.tech/
    Improving Meilisearch's language support, 11월 7, 2025에 액세스, https://www.meilisearch.com/blog/improving-meilisearchs-language-support
    Top 8 Embedded SQL Databases in 2025 - Explo, 11월 7, 2025에 액세스, https://www.explo.co/blog/embedded-sql-databases
    6 Best Embedded Databases for 2024 - Ghost, 11월 7, 2025에 액세스, https://latitude-blog.ghost.io/blog/6-best-embedded-databases-2024/
    Matchups: Lucene vs Xapian | Search Technologies Comparison, 11월 7, 2025에 액세스, https://www.swiftorial.com/matchups/search_technologies/lucene-vs-xapian
    tantivy - Rust | Titan AI Explore, 11월 7, 2025에 액세스, https://www.titanaiexplore.com/projects/tantivy-49412556
    Whitespace tokenizer | Reference - Elastic, 11월 7, 2025에 액세스, https://www.elastic.co/docs/reference/text-analysis/analysis-whitespace-tokenizer
    Korean Tokenization & Lemmatization | by Vitalii Koren - Medium, 11월 7, 2025에 액세스, https://korenv20.medium.com/korean-tokenization-lemmatization-a741fc9939cc
    [AIS] When Japanese/Chinese/Korean users use whitespaces in the search term, the Search Tokenization does not take the whitespace into account, and so it does not return the document with the same characters in the Search Results - ServiceNow support, 11월 7, 2025에 액세스, https://support.servicenow.com/kb?id=kb_article_view&sysparm_article=KB1220272
    Can't get CJKAnalyzer/Tokenizer to recognise japanese text - Stack Overflow, 11월 7, 2025에 액세스, https://stackoverflow.com/questions/8753177/cant-get-cjkanalyzer-tokenizer-to-recognise-japanese-text
    Korean tokenizer does not work · Issue #490 · stanfordnlp/stanza - GitHub, 11월 7, 2025에 액세스, https://github.com/stanfordnlp/stanza/issues/490
    How to speed up a search on large collection of text files (1TB) - Stack Overflow, 11월 7, 2025에 액세스, https://stackoverflow.com/questions/62095687/how-to-speed-up-a-search-on-large-collection-of-text-files-1tb
    Introducing: FTS5 ICU Tokenizer for Better Multilingual Text Search : r/sqlite - Reddit, 11월 7, 2025에 액세스, https://www.reddit.com/r/sqlite/comments/1nkaqiq/introducing_fts5_icu_tokenizer_for_better/
    Unicode support for non-English characters with Sqlite Full Text Search in Android, 11월 7, 2025에 액세스, https://stackoverflow.com/questions/29669342/unicode-support-for-non-english-characters-with-sqlite-full-text-search-in-andro
    Why sqlite fts5 Unicode61 Tokenizer does not support CJK(Chinese Japanese Korean)?, 11월 7, 2025에 액세스, https://stackoverflow.com/questions/52422437/why-sqlite-fts5-unicode61-tokenizer-does-not-support-cjkchinese-japanese-korean
    [Bug]: Querying with certain foreign language data is failing to return correctly with sqlite3 fts5 tokenizer='trigram' #1073 - GitHub, 11월 7, 2025에 액세스, https://github.com/chroma-core/chroma/issues/1073
    Lucene 3.5 is not supporting Chinese Russain Korean Languages while searching, 11월 7, 2025에 액세스, https://stackoverflow.com/questions/48055694/lucene-3-5-is-not-supporting-chinese-russain-korean-languages-while-searching
    Best cross-language analyzer to use with lucene index [closed] - Stack Overflow, 11월 7, 2025에 액세스, https://stackoverflow.com/questions/1001003/best-cross-language-analyzer-to-use-with-lucene-index
    Which Lucene Analyzer should be used Korean language analysis? - Stack Overflow, 11월 7, 2025에 액세스, https://stackoverflow.com/questions/28567911/which-lucene-analyzer-should-be-used-korean-language-analysis
    A Visualization Tool for Korean Morphological Analyzer - Department of Computer Science and Engineering - HKUST, 11월 7, 2025에 액세스, https://cse.hkust.edu.hk/acl2000/Demo/18_choi.pdf
    Building a Korean morphological analyzer using two Korean BERT models - PMC - NIH, 11월 7, 2025에 액세스, https://pmc.ncbi.nlm.nih.gov/articles/PMC9137944/
    An Empirical Study of Korean Sentence Representation with Various Tokenizations - MDPI, 11월 7, 2025에 액세스, https://www.mdpi.com/2079-9292/10/7/845
    Lucene 8.11.0 analyzers-nori API, 11월 7, 2025에 액세스, https://lucene.apache.org/core/7_4_0/analyzers-nori/index.html
    kiwipiepy - PyPI, 11월 7, 2025에 액세스, https://pypi.org/project/kiwipiepy/
    Experimental Study of Morphological Analyzers for Topic Categorization in News Articles, 11월 7, 2025에 액세스, https://www.mdpi.com/2076-3417/13/19/10572
    Script based tokenizer - the Meilisearch specifications!, 11월 7, 2025에 액세스, https://specs.meilisearch.dev/specifications/text/0001-script-based-tokenizer.html
    Tantivy is a full-text search engine library inspired by Apache Lucene and written in Rust - GitHub, 11월 7, 2025에 액세스, https://github.com/quickwit-oss/tantivy
    Can I turn off Korean tokenizer? · meilisearch · Discussion #683 - GitHub, 11월 7, 2025에 액세스, https://github.com/orgs/meilisearch/discussions/683
    KoreanAnalyzer (Lucene 7.4.0 API), 11월 7, 2025에 액세스, https://lucene.apache.org/core/7_4_0/analyzers-nori/org/apache/lucene/analysis/ko/KoreanAnalyzer.html
    [Nori] Add metadata support for Korean analyzer tokens · Issue #14940 · apache/lucene, 11월 7, 2025에 액세스, https://github.com/apache/lucene/issues/14940
    Performance Analysis - SQLite User Forum, 11월 7, 2025에 액세스, https://sqlite.org/forum/info/47429810bd2232ebe0c1096c4910b43f6313b9d92bca6eab8496d59d3f585e4c
    Simon Willison on full-text-search, 11월 7, 2025에 액세스, https://simonwillison.net/tags/full-text-search/
    thino-rma/fts5_mecab: sqlite3 fts5 mecab - GitHub, 11월 7, 2025에 액세스, https://github.com/thino-rma/fts5_mecab
    Compiling SQLite3 with the ICU tokenizer - Zhiming Wang, 11월 7, 2025에 액세스, https://blog.zhimingwang.org/compiling-sqlite3-with-icu-tokenizer
    org.apache.lucene:lucene-analyzers-nori - Maven Central - Sonatype, 11월 7, 2025에 액세스, https://central.sonatype.com/artifact/org.apache.lucene/lucene-analyzers-nori
    What are the best databases for Embedded Linux OS - Reddit, 11월 7, 2025에 액세스, https://www.reddit.com/r/Database/comments/n8e5iu/what_are_the_best_databases_for_embedded_linux_os/
    SQLite FTS5 Extension, 11월 7, 2025에 액세스, https://sqlite.org/fts5.html
    Full-Text Search in SQLite: A Practical Guide | by Johni Douglas Marangon | Medium, 11월 7, 2025에 액세스, https://medium.com/@johnidouglasmarangon/full-text-search-in-sqlite-a-practical-guide-80a69c3f42a4
    SQLite FTS5 Extension - Hacker News, 11월 7, 2025에 액세스, https://news.ycombinator.com/item?id=41198422
    FTS5 ICU Tokenizer for SQLite - GitHub, 11월 7, 2025에 액세스, https://github.com/cwt/fts5-icu-tokenizer
    Japanese Full-Text Search in SQLite - elianiva, 11월 7, 2025에 액세스, https://elianiva.my.id/posts/japanese-fts-using-sqlite/
    lindera/lindera-sqlite: Lindera for SQLite FTS5 extention - GitHub, 11월 7, 2025에 액세스, https://github.com/lindera/lindera-sqlite
    Integrating search in your application with Apache Lucene | by Dhruvsharma - Medium, 11월 7, 2025에 액세스, https://medium.com/@dhruvsharma2600/integrating-search-in-your-application-with-apache-lucene-d11c6fb84ab4
    Lucene In-Memory Text Search Example - JavaTechniques, 11월 7, 2025에 액세스, https://javatechniques.com/blog/lucene-in-memory-text-search-example/
    Guide to Lucene Analyzers | Baeldung, 11월 7, 2025에 액세스, https://www.baeldung.com/lucene-analyzers
    Lucene Tutorial, 11월 7, 2025에 액세스, http://web.cs.ucla.edu/classes/winter15/cs144/projects/lucene/index.html
    Lucene Linguistics - Vespa Documentation, 11월 7, 2025에 액세스, https://docs.vespa.ai/en/lucene-linguistics.html
    Apache Lucene Migration Guide, 11월 7, 2025에 액세스, https://lucene.apache.org/core/9_0_0/MIGRATE.html
    Korean (nori) analysis plugin | Reference - Elastic, 11월 7, 2025에 액세스, https://www.elastic.co/docs/reference/elasticsearch/plugins/analysis-nori
    Nori, a Korean analyzer based on mecab-ko-dic [LUCENE-8231] #9278 - GitHub, 11월 7, 2025에 액세스, https://github.com/apache/lucene/issues/9278
    lucene/analysis/nori/src/java/org/apache/lucene/analysis/ko/KoreanAnalyzer.java - lucene - Git at Google, 11월 7, 2025에 액세스, https://apache.googlesource.com/lucene/+/refs/heads/revamp_geopath/lucene/analysis/nori/src/java/org/apache/lucene/analysis/ko/KoreanAnalyzer.java
    nocode2k/nori-analyzer-example: nori analysis java application example - GitHub, 11월 7, 2025에 액세스, https://github.com/nocode2k/nori-analyzer-example
    A Simple File Search with Lucene | Baeldung, 11월 7, 2025에 액세스, https://www.baeldung.com/lucene-file-search
    KoreanAnalyzer (Lucene 9.3.0 nori API), 11월 7, 2025에 액세스, https://lucene.apache.org/core/9_3_0/analysis/nori/org/apache/lucene/analysis/ko/KoreanAnalyzer.html
    Comparison of open source search engines - Abilian Innovation Lab, 11월 7, 2025에 액세스, https://lab.abilian.com/Tech/Search/Comparison of open source search engines/
    Up and coming Tantivy 0.7 is faster than Lucene in most tests : r/rust - Reddit, 11월 7, 2025에 액세스, https://www.reddit.com/r/rust/comments/962n86/up_and_coming_tantivy_07_is_faster_than_lucene_in/
    tantivy 0.22 has been released! Performance and Stability Improvements, Top Hits and Term Aggregations : r/rust - Reddit, 11월 7, 2025에 액세스, https://www.reddit.com/r/rust/comments/1c64pq8/tantivy_022_has_been_released_performance_and/
    Tantivy is a lightweight full-text search engine - MEDevel.com, 11월 7, 2025에 액세스, https://medevel.com/tantivy-search/
    tantivy_tokenizer_api - Rust - Docs.rs, 11월 7, 2025에 액세스, https://docs.rs/tantivy-tokenizer-api
    tantivy v0.12 released : r/rust - Reddit, 11월 7, 2025에 액세스, https://www.reddit.com/r/rust/comments/f6aig1/tantivy_v012_released/
    Developing a fast Indexing and Full text Search Engine with Whoosh: A Pure-Python Library, 11월 7, 2025에 액세스, https://appliedmachinelearning.wordpress.com/2018/07/31/developing-a-fast-indexing-and-full-text-search-engine-with-whoosh-a-pure-python-library/
    I finally found a currently-maintained version of Whoosh, a text search library : r/Python, 11월 7, 2025에 액세스, https://www.reddit.com/r/Python/comments/1gm8ovf/i_finally_found_a_currentlymaintained_version_of/
    analysis module — Whoosh 2.7.4 documentation - Read the Docs, 11월 7, 2025에 액세스, https://whoosh.readthedocs.io/en/latest/api/analysis.html
    About analyzers — Whoosh 2.7.4 documentation, 11월 7, 2025에 액세스, https://whoosh.readthedocs.io/en/latest/analysis.html
    Creating custom analyzers using whoosh - Stack Overflow, 11월 7, 2025에 액세스, https://stackoverflow.com/questions/47333814/creating-custom-analyzers-using-whoosh
    Whoosh: a fast pure-Python search engine | Hacker News, 11월 7, 2025에 액세스, https://news.ycombinator.com/item?id=478326
    Replacing Elasticsearch with Rust and SQLite (2017) - Hacker News, 11월 7, 2025에 액세스, https://news.ycombinator.com/item?id=27175284
    [Xapian-discuss] Chinese, Japanese, Korean Tokenizer., 11월 7, 2025에 액세스, https://lists.tartarus.org/pipermail/xapian-discuss/2007-June/003921.html
    Writing a tokenizer, where to begin? - Stack Overflow, 11월 7, 2025에 액세스, https://stackoverflow.com/questions/5918512/writing-a-tokenizer-where-to-begin

    자유게시판

  • 스타트업에게 전례 없는 AI 기회: 대기업의 AI 도입 실패
    adminA admin

    스타트업에게 전례 없는 AI 기회: 대기업의 AI 도입 실패

    만다라트 설명
    메인 테마: 스타트업에게 전례 없는 AI 기회: 대기업의 AI 도입 실패
    하위 주제: 대기업 AI 도입 실패 원인, 성공적인 스타트업 사례, 스타트업 성공 요인, MIT 보고서의 실제 의미, 스타트업의 성공 전략, 기업의 AI 도입 의지와 기회, AI 회의론자에게 보내는 메시지, AI 네이티브 시스템 재구축
    만다라트는 목표를 8개의 하위 주제로 확장하고, 각 하위 주제를 다시 8개의 세부 아이디어로 구체화하는 생각정리 도구입니다.

    253139d1-f135-414b-a6f0-337680065a16-image.png

    https://a1bbs.com/view/46a5fe3fa09b99ae

    만다라트 AI

  • 바나나우유로 만든 레미콘 자동차
    adminA admin

    게시 날짜: 2014-08-08 05:42:34

    내용:

    내가 말이야… 박스로 만들어진 자동차야

    연필로 만든 시리즈를 계속하다가 오늘 디자인을 바꾸면서 아이들을 위한 자동차인데 그냥 귀엽게 만들고 가지고 놀기 쉽게 바꾸는 것으로
    가이드로 만들었던 것들을 다 치우고 새로 디자인을 전부 변경했어요 사실 결합하는 방식을 끼우고 최종적으로 스티커를 붙일 계획으로 만드는 중이었는데 다 엎어 버렸습니다.바나나우유 레미콘을 다시 디자인

    페이퍼 브릭으로 초기에 만들었던 레미콘을 다시 작업하고 끼우는 형태와 스카치테이프는 컬러링이 가능한 크라프트 또는 모조지로 만든 스티커로 붙일 예정입니다.

    무민 목각인형 친구들은 계속 출연을 했는데 다음번 촬영에는 레고나 듀플로로 끼워보는 것으로 요철을 기반으로 조합할 수 있게 디자인을 바꿀 예정입니다.
    1차 작업 끝단지형 바나나우유에 조명을 켜면
    앞으로 가지고 놀 수 있는 박스를 만들 예정입니다. 원래 박스 크래프트 시리즈는 마치 레고처럼 A 시리즈와 B 시리즈의 부품을 교환하여 다른 새로운 것을 만들 수 있게 하는 아이디어도 있습니다.
    인테리어 소품으로 조명으로 그리고 재활용 장난감으로 이 시리즈를 지속할 예정입니다. 이제 급하게 미뤄뒀던 다른 일을 해야죠
    출판 마케팅

  • AI로 사진을 수정해봤어요...
    adminA admin

    AI 시켜서 뭐 좀 해보려고 했는데... 개뿔 해상도를 엉망으로 만들어 놓음... 이런걸 어떻게 해야할까 고민하다가 원복했습니다.

    14fed097-d847-4a70-a35e-18940913508b-image.png

    사진작업으로

    e99d53e8-8569-45d5-8b12-3b1a20cef4f8-image.png

    자유게시판

  • 맥OSX Affinity 어피니티 한글화 진행상황
    adminA admin

    어피니티 한국어 버전 작업이 거의 끝나가긴 함 Ollama 병렬로 3대를 돌려서 처리... 한 애가 실수해도 다른애가 다시 재번역을 반복 최대한 줄여서 작업이 끝나감 주말 프로젝트가 너무 길어짐
    여과지를 줄여도 뭐가 또 남아서 적당히 마무리 하고싶은데... 재번역만 벌써 5차례 점점 줄고는 있지만 안끝나는 이유는 어디 또 숨겨놓은 것들이 또 나와서 그렇습니다.
    fee4bf65-6c8a-4787-a782-4712f3f38f1f-image.png
    번역 진행 상황
    첫 번째 번역: 20,698개 항목 완료
    두 번째 번역: 246개 항목 완료
    세 번째 번역: 76개 항목 완료
    네 번째 번역: 41개 항목 완료
    다섯 번째 번역: 15개 항목 완료
    총 번역: 약 21,076개 항목
    남은 항목: 약 50개 (번역 실패 또는 일본어 감지되지 않음)

    da7bead2-e22e-4041-b867-6e82932c9e46-image.png
    Affinity 어피니티 한글화는 했는데... 100% 라고 할 수 없고 시스템 일부 정도지만 수정을 해야 합니다. 일단 가능성은 타진했고 바뀐 데이터를 지속적으로 수정하는 프로그램으로 만들지 않으면 안될거 같기도 합니다.

    현재 맥OSX 에서만 동작하는 작업중입니다.

    캔바

  • affinity가 완전히 무료로 전환
    adminA admin

    30일 큰거온다는게 affinity가 완전히 무료로 전환 어?!? 도비는 프리예요 =3=3=3

    아마도 업계를 가장 뒤흔든 발표는 Canva가 2024년에 3억 8,000만 달러에 인수한 전문 디자인 도구 모음인 Affinity를 모든 사용자에게 완전히 무료로 제공한다는 것이었습니다. 새롭게 통합된 Affinity 앱은 기존의 Affinity Photo, Designer, Publisher 애플리케이션의 기능을 하나의 플랫폼에 결합하여, 최대 월 70달러가 소요될 수 있는 Adobe의 Creative Cloud 구독 모델에 정면으로 도전합니다.

    https://www.affinity.studio/
    6a29ad79-3c97-4e70-8006-c5dfaff5ccea-image.png

    기존 2 사용자는 새로 받으셔야 합니다. 디자이너 포토 퍼블리셔 3개의 어플이 하나로 통합됩니다. 그리고 캔바 계정이 있어야 AI 기능을 사용할 수 있고 세상 다 그런거죠. 영구라이센스 돈낸 사람만 바보가 됐어요... 그게 나예요

    캔바

  • 사이트 개편중에 하드가 깨져서
    adminA admin

    290441691_8190604334283777_4602631744591633262_n.jpg

    사이트 개편 중에 하드가 깨져서

    원복하느라 1주일 걸렸습니다. 케이블 문제 ㅠㅠ

    자유게시판

  • 독자가 눈앞에서 내 책을 풀고있음
    adminA admin

    오늘 제주도 공항에서 내 책을 열심히 풀고있는 초등학생쯤 보이는 친구를 보게 되었는데 이거 아저씨가 만든거야 라고 말할뻔 했음...

    부모님과 동생쯤 보이는 아이가 함께 있는데 말걸었다가는 감옥갔을지도 몰라서 참고 일행에게 봐달라고... 속닥속닥~

    557642391_32269069736010567_171152966419912507_n.jpg

    오늘 강의한 내용에 들어있던 스도쿠

    저자라면 아마 알고 있을겁니다... 서점에서 책 집으려고 하는 사람이 있으면 갑자기 카드를 꺼내거나 말을걸고 싶은...마음 감사합니다. 미래의 독자님...

    서평단 모집 독자 친구 풀이 교육서

  • 이틀간 제주도 수학 여행
    adminA admin

    얼마전에 수학교과서에 제가쓴 책의 사용료를 알리는 메일이 왔다고 글을 적었는데 그 글로 인해 강의를 할 계기가 생겼습니다. 3권의 책이 매년 수학교과서에 추가된 것을 몰랐었는데 어느덧 제주도에 와서 학부모 아카데미라는 곳에 서게 되었습니다.

    556143403_32249201194664088_2512156174874704848_n.jpg

    일정은 이렇게 되었는데 오늘도 강의를 하러갈 예정입니다.

    창의적 생활속 수학이란 제가 30년간 해왔던 일들에 수학이 필요했고 문제해결의 결과 과정 안에는 언제나 수학이 있었다는 사실을 이야기할 생각이었습니다. 물론 그렇게 준비도 했고 요즘 학부모님들이 사용하시는 AI에 대해서도 생각하면서 이야기를 풀어봤습니다.

    오늘 약간의 강의안을 수정하고 조금 다른 방향을 찾아볼 생각입니다. 오랜기간동안 매직아이, 스도쿠, 미로찾기 같은 퍼즐을 만들면서 과정 속의 알고리즘의 변화 같은게 눈에 보이지 않지만 어떻게 표시되는지는 보여드릴 수 있으니 개발 프로그램과 생각이 바뀌면 수학적사고도 변경된다는 것을 이야기할 생각입니다.

    555548133_32248458748071666_6276792301238015581_n.jpg?stp=cp6_dst-jpg_tt6&_nc_cat=108&ccb=1-7&_nc_sid=127cfc&_nc_ohc=DlaaCt6J44cQ7kNvwHB_UME&_nc_oc=AdmK38GRvM5It33BXadRiFgELorN6Tuv3yIuzf7Tl8_KbxmIrSeR9pVqv-ZZ-NriT1g&_nc_zt=23&_nc_ht=scontent-ssn1-1.xx&_nc_gid=VYM1uMGgjdRwaW-ugQWXYw&oh=00_AfbPH55ArCFKBXepzCJ6rl4rP0ErNroLf-L7RiHjVXl_bA&oe=68E18BEA

    https://ai.a1bbs.com/ 수학학습목표를 세우기 위한 만다라트도 정리했고 오늘은 어제보다 더 나은 수학여행이 되어야 할텐데 말이죠 ^^

    서평단 모집 제주도 수학여행 도서 교육 학부모

  • 일상의 예술가를 위한 명화 아트 컬러링북 1
    adminA admin

    일상의 예술가를 위한 명화 아트 컬러링북 1

    명화-아트-컬러링북-표지.jpg

    제 목: 일상의 예술가를 위한 명화 아트 컬러링북 1

    저 자 : 아르고나인스튜디오

    펴낸 곳: 봄봄스쿨

    판 형: 250*250(mm)

    제 본 : 무선제본

    면 수 : 72쪽

    발행일: 2025년 9월 25일 (9월26일 입고)

    정 가 : 15,000원

    I S B N : 8809332974605

    1. 책 소개

    명작의 감동을 내 손으로 칠해보는 컬러링북

    『 일상의 예술가를 위한 명화 아트 컬러링북 1』은 교과서에 나오는 화가들의 걸작들을 나만의 색깔로 색칠할 수 있는 명화 그림을 제공합니다. 색연필, 마커, 파스텔 등 다양한 도구로 명화를 색칠하며 집중력과 색감, 미적 감각 등을 높여 보세요. 나만의 스타일로 명화를 색칠하는 시간을 통해 당신은 활기를 되찾을 거예요.

    책의 구성은 왼쪽 페이지에는 명화와 명화에 대한 이야기와 오른쪽 페이지에는 실제 프레임 속에 명화 밑그림을 보는 그대로 칠할 수 있게 하였어요. 명작의 감동을 내가 선택한 색연필, 마커, 파스텔 등 다양한 컬러링 도구로 명화를 색칠하며 집중력과 색감, 미적 감각 등을 높여 볼 수 있어요. 명화를 색칠하고 나만의 작품을 전시하고 교과서에 나오는 미술작품에 직접 컬러링을 해보면서 미술에 자신감을 갖을 수 있어요.

    따라 그리는 것만으로 예술적 감성을 키우는 명화

    그림을 많이 접할수록 감수성이 풍부합니다. 작품을 다양한 관점에서 바라보고 가슴으로 느끼고 이야기를 만들어 보는 활동은 창의력을 키워줄 뿐만 아니라 정서적으로 안정감을 줍니다. 특히 세계적인 화가들의 명화는 아름다운 색감과 독특한 표현 기법으로 진한 감동을 선사합니다. 또, 당시의 문화나 시대적인 배경을 간접적으로 체험할 수 있어 교육적인 효과도 높습니다. 이 책에는 명화의 의미와 실제 사이즈 그리고 작가가 그림을 그리게된 배경과 이야기를 담고 있습니다.

    32점의 명화를 선별해 원화와 함께 직접 색칠할 수 있는 도판을 실었습니다. 멋진 액자와 명화 밑그림으로 그려진 선에 맞추어 마음껏 색을 채워 나가다 보면 명화와 한층 더 가까워질 것입니다. 눈으로만 보는 것과 직접 색칠해 보는 것은 많은 차이가 있습니다. 더 세세한 부분까지 살펴보고 느낄 수가 있어요.

    그렇기 때문에 『 일상의 예술가를 위한 명화 아트 컬러링북 1』은 명화를 익히는 도슨트 교재로 각 명화에는 짤막한 해설이나 그림과 관련된 제작 비화 등 흥미진진한 읽을거리를 더했습니다. 아이들에게 차근차근 설명을 들려 주고 함께 작품을 감상해 보세요. 그림에 더욱 친근감이 생기고 기억에도 오래 남게 된답니다.

    흐린 회색의 명화 가이드라인을 이용하면 누구나 멋진 그림을 그릴 수 있고 원작을 참고하지 말고 나만의 컬러링을 통해 새로운 색감각과 현대미술품을 만들 수도 있어요. 함께 제공되는 QR 코드를 사용하여 다빈치 격자법을 다른 미술작품 또는 사진으로 스케치를 하거나 새로운 미술활동을 할 수 있게 지원을 합니다.


    명화-아트-컬러링북-뒷표지.jpg

    2. 목차

    고흐의 방 / 빈센트 반 고흐

    해바라기 / 빈센트 반 고흐

    폴 가셰 박사의 초상화 / 빈센트 반 고흐

    밤의 카페 테라스 / 빈센트 반 고흐

    별이 빛나는 밤 / 빈센트 반 고흐

    알프스를 넘는 나폴레옹 / 자크 루이 다비드

    모나리자 / 레오나르도 다 빈치

    피아노 치는 소녀들 / 피에르 오귀스트 르누아르

    풀밭 위의 점심 식사 / 에두아르 마네

    피리 부는 소년 / 에두아르 마네

    초원의 성모 / 산치오 라파엘로

    우물가의 여인들 / 폴 시냐크

    아이의 목욕 / 메리 커셋

    큰 모자를 쓴 잔 에뷔테른 / 아메데오 모딜리아니

    절규 / 에두아르 뭉크

    이삭 줍는 여인들 / 장 프랑수아 밀레

    만종 / 장 프랑수아 밀레

    과일 접시가 있는 정물 / 폴 세잔

    그랑드자트 섬의 일요일 오후 / 조르주 피에르 쇠라

    홍수가 난 마를리 항의 작은배 / 알프레드 시슬레

    백일몽 / 알폰스 무하

    연인들 / 알폰스 무하

    욥 / 알폰스 무하

    황도 12궁 / 알폰스 무하

    키스 / 귀스타브 클림트

    우유를 따르는 여인 / 요하네스 베르메르

    진주 귀걸이를 한 소녀 / 요하네스 베르메르

    밤의 카페, 아를 / 폴 고갱

    타히티의 여인들 / 폴 고갱

    꽈리 열매가 있는 자화상 / 에곤 실레

    시골의 무도회 / 피에르 오귀스트 르누아르

    잠자는 집시 / 앙리 루소

    3. 본문 보기

    명화아트-상세페이지_1080.jpg

    4. 저자 소개

    저 자 | 아르고나인 스튜디오

    아르고나인 스튜디오는 기획자, 작가, 아티스트, 일러스트레이터, 발명가 등 다양한 인재가 모여 만든 기획 창

    작 집단으로 실험성과 재미, 유익함을 동시에 줄 수 있는 콘텐츠를 개발하기 위해 노력하고 있습니다.

    https://product.kyobobook.co.kr/detail/S000217935313

    어도비 명화 컬러링 아트 예술가

  • AI시대 ActivityPub의 효과
    adminA admin

    AI 시대에 게시판 활용도에 대해서 고민하는 일이 많았다가 NodeBB 기반이 4.0대부터 ActivityPub을 지원해서 늘 켜놓다가 최근에 기존 서버에서 돌리기에는 무리가 있어 앞으로 시대에 맞춰 서버들을 다 닫고 사이트도 여기저기 있던 것들도 다 한 곳으로 모으는 중입니다.

    스크린샷 2025-09-24 오후 5.09.13.png

    검색엔진이나 AI로 SEO를 한다는 분들이 이미 자체 서비스에 ActivityPub을 도입했다는 이야기는 잘 못 들었는데 Ghost 6.0 그리고 워드프레스는 플러그인으로 이미 해당 기능을 추가할 수 있게 되었고 확장된 기능을 제공하기도 하는데 실제 한국에서 얼마나 사용하는지는 미지수였습니다.

    직접 운영하는 스레드에 ActivityPub 기능이 있기는 하지만 실제 사용량을 측정하기에는 자료가 공개되지도 않고 실제 사용하기도 쉽지 않습니다.

    스크린샷 2025-09-25 오전 7.35.37.png

    그래서 다시 메모리도 증설하고 공간도 늘려 NodeBB 4.5.1로 업그레이드하고 서버를 오늘 켜놨습니다. 페이지뷰나 봇 페이지 뷰를 능가할 정도로 네트워크가 커졌습니다. 그만큼 퍼져나가는 영향력이 있다는 의미이고 이미 제가 운영하고 있는 도메인에도 검색량 증가가 눈에 뜨일 정도로 늘어났습니다.

    결론은 아직 지켜봐야겠지만 늘어나고 있고 앞으로 대안으로 홍보할 수 있는 채널이 늘어났다는 것을 의미합니다. 현재 마크다운기반의 AI 인용을 타깃 한 글들이 더 많이 노출될 수 있게 더 많은 리서치 자료를 올리면 더 많은 곳에 퍼트릴 수 있는 원소스가 될 수 있으리라 생각됩니다.

    다양함만이 살아남을 수 있는 세상이라서 기대 중입니다. 이제 ActivityPub 기반의 다른 서비스도 설치해 볼까 하고 있긴 한데 서버에 트래픽이 걱정됩니다. ^^

    https://bombomschool.com

    AI와 함께 AI 활동Pub 서버 NodeBB 정리

  • 책공장에서 준비한 한 권의 책 이라는 강의 서비스
    adminA admin

    책공장에서 운영진이 이야기한 몇가지 책공장 출판학교 플랫폼에 대해서 말씀드리고자 합니다.

    한 권의 책 이라는 강의 서비스와 인터뷰를 중심으로 하는 교육 거래소를 만들고 있었습니다. 그래서 AI로 출판 전반에 대한 프로세스를 정리하고 실제 1인 출판사의 창업과 관련 도서를 모니터링하고 성장시키는 시뮬레이션을 경험할 수 있는 ERP도 만들어 놓았습니다. 그 다음은 한 권의 책을 만드신 모든 출판사 회원이 강의를 등록할 수 있게 할 준비를 하고 있습니다.

    549054733_32104678029116406_4049708656322888556_n.jpg?_nc_cat=108&ccb=1-7&_nc_sid=127cfc&_nc_ohc=maA7RU0KU3MQ7kNvwGia2F3&_nc_oc=AdmxK8kNkLT6zJ8pns2eZzHoXfzzbUMvBR1QX3rlS-Xg30apO90nUMadYtuKaYb6xLE&_nc_zt=23&_nc_ht=scontent-ssn1-1.xx&_nc_gid=MypB6IfDhOV1n34klcOO_g&oh=00_AfbUgulGdVQ-lEldGft56xensiCjG82CSHLyHg0EdaXIGA&oe=68D3C327

    실제 책을 한 권 구매하시면 강의를 들을 수 있고 제작에 따른 모든 이야기를 담은 출판사가 비싸게 작업을 했건 인쇄사고가 나서 작업비용이 올라갔건 우여곡절이 있는 책에 대해서 비하인드를 풀어주는 협업의 진짜 이야기를 판매할 생각입니다. 기획단계에서 실제 실무까지 모든 데이터도 함께

    현재 책공장에서 부족한 점이 바로 이 부분이라는 것을 절실히 느끼고 있지만 공개를 하지 않아 사람들이 실패를 반복하고 같은 질문을 또 하게 되는 이유라고 생각합니다.

    양장을 한 출판사, 제작이 특별한 제품을 만든 교구 출판사, 세상의 모든 책의 결과물은 그 과정이 다릅니다.

    링제본, KC, 기타 각기 다른 책을 내기때문에 책 한 권+ 강의(서버비용) 정도에 책공장에서도 제작노하우 인디자인 데이터(템플릿) 등의 부가 부분을 판매하는 마켓이 될 수 있으리라 생각하고 있습니다.

    영상 및 문서 그리고 실제 작업한 업체, 명세서, 견적서, 지류대 같은 것을 보여줄 생각입니다. (물론 일부 가리기도 하겠지만)

    실제 책 + 강의 + 데이터를 제공할 부분이 되면 제작에 대한 고민, 판매 마케팅 고민을 줄일 수 있으리라 생각하고 앞으로 새로 제작할 도서에 대한 후원이 될 수 있으리라 생각됩니다. 텀블벅, 와디즈 보다 현업에서 종사하는 분들을 지원하는 Give&Take 가 될 수 있으리라 생각합니다. 길게 보면 책공장에서도 충분히 펀딩도 가능할 것입니다. 그게 앞으로 이 책을 만드는 모든 과정을 공유하겠다 하고 펀딩을 받는 교육과정이 될 것이고 과정을 매번 올리는 것으로 서로 독려할 수 있게 될 것입니다.

    정확히는 프로젝트를 후원하는 패트레온을 모델로 하고 있습니다.

    더 많은 사람들이 참여하면 책 제작의 완성도와 고민한 부분을 실제 책을 받아보면서 그 과정의 고민과 시간의 기록을 한권의 책 이라는 강의를 통해 부족한 부분을 채워줄 수 있지 않을까 하고 있습니다.

    지금 생각하면 빨리빨리 했어야 하는데 게으름은 아니고 서로 도움이 될 수 있는 플랫폼으로 책공장이 진화할 시점이라고 생각되어 공론의 장으로 올리게 됩니다.

    모든 출판사가 참여가능하고 한 권의 실제 책이 있으면 더 좋겠습니다.

    의견주세요. https://cafe.naver.com/bookfactory/179606

    만들기 책출판 교육 스도쿠 출판 플랫폼

  • 꿈꾸는 책공장 출판콘서트 2025
    adminA admin

    네이버 꿈꾸는 책공장이라는 공간에 커뮤니티를 운영한 지 19년째 내가 만든 카페는 아니지만 2대째 카페지기가 되어 어느덧 19년이 되었습니다.

    스크린샷 2025-09-19 오후 8.13.16.png

    최근 강의에서 "서바이벌 출판시장에서 외서로 살아남기"라는 주제로 발표할 기회가 있었습니다. 지난 20여 년간 약 450권을 출간하며 걸어온 길을 되돌아보니, 우리 출판사를 이끌어온 두 개의 핵심 축이 보였습니다. 바로 수학 퍼즐과 외서 번역이었습니다.

    그동안 운이 좋았던 때도 있고, 시기를 잘 맞춘 경우도 있었습니다. 반대로 실패해서 너무 성급하게 정리한 책들도 있었죠. 20년이 넘는 기간 동안 흥망성쇠를 겪으며 간혹 출판 활동을 멈춘 시기도 있었습니다.

    출판업에 대한 초기 철학

    창업 초기에 품었던 생각이 있었습니다. 출판업은 "삼성이나 네이버 같은 대기업이 쉽게 진입하지 않을 시장이면서, 쉽게 망하지는 않지만 잘하면 꾸준히 성장할 수 있는 유일한 산업군"이라고 여겼습니다.

    하지만 최근 큰 변화의 물결 앞에서 고민이 깊어졌고, 한동안 멍한 상태였던 것도 사실입니다. 그럼에도 변화에 적극 대응하기로 마음먹었고, 외서가 지속경영을 위한 중요한 단초가 될 것이라는 확신을 갖게 되었습니다.

    앞으로의 전략

    앞으로 판권을 구매할 책들은 '문구에 가까운' 성격을 띨 것으로 예상됩니다. 기술적인 세부사항이나 라이선스 이야기는 차치하고, 이번 강의는 지난 시간을 되돌아보는 성찰의 시간이었습니다.

    진짜 살아남기는 이제부터

    10월, 본격적인 생존 전략을 실행에 옮길 때입니다.

    549159548_32090031980581011_3358507445637206476_n.jpg?_nc_cat=103&ccb=1-7&_nc_sid=127cfc&_nc_ohc=ByI5WnIwwvQQ7kNvwED8_iO&_nc_oc=Admh8k_vE4RNLGTWS3VdTm7pTnen5ovc31Pmw_HXz8-LYlh57sqNSFg6oPN4GjHxzW8&_nc_zt=23&_nc_ht=scontent-ssn1-1.xx&_nc_gid=CE6V2UvI8LnYB7xD9EABKw&oh=00_Afa2O521yVLzl57MDqxZD6eWY0EM5C9XvRgv-igMEK0txw&oe=68D31A86

    실뜨기 미로 찾기 책을 준비 중입니다.

    9월에 미친 듯 책을 내고 10월에 기획하고 제작하고 버티는 시간...

    https://www.argo9.com/

    만들기 꿈꾸는 책공장 카페지기 출판 커뮤니티 2대

  • 출판인을 위한 AI 활용 무료 사이트 위주로 정리
    adminA admin

    출판인을 위한 AI 활용 무료 사이트 위주로 정리한 페이지

    550174971_32074066672177542_5143609234184341968_n.jpg?stp=dst-jpg_s1080x2048_tt6&_nc_cat=103&ccb=1-7&_nc_sid=127cfc&_nc_ohc=Px6w2Ta9_RwQ7kNvwFq0iYc&_nc_oc=Adlft2bJnARrWZYB1QcCoZTBWG2tDhfY91hd6v_C2I1sMztrOPyBKeZewEe_GgEfmpo&_nc_zt=23&_nc_ht=scontent-ssn1-1.xx&_nc_gid=p6o0m7TIGRJDAt0CgDmv0g&oh=00_AfapnLfe2WeOFHMxacizJfiFILw8mgv7J9TM0WznjSLIUg&oe=68D12C72

    https://argo9.com/ai/

    ?src=%22https%3A%2F%2Fimages.unsplash.com%2Fphoto-1677756119517-756a188d2d94%3Fq%3D80%26w%3D2070%26auto%3Dformat%26fit%3Dcrop%22&type=ff500_300

    출판인을 위한 AI 활용 가이드

    소개 및 개인 추천 직접 사용해 본 경험을 바탕으로 유용한 AI 도구들을 공유합니다. 이 가이드는 위키처럼 여러분의 제안을 통해 계속해서 발전할 수 있습니다. 좋은 도구를 알고 계시다면 각 카테고리 하단의 양식을 통해 제안해 주세요. Google NotebookLM: 올린 자료가 학습되지 않고 보안이 잘 되어 개인 자료 분석에 좋습니다. 영어 기술 백서를 한글로 문의하거나, 계약서 법률 검토, 긴 웹사이트 보안 정책 및 PDF 매뉴얼 정보 문의 등 다용도로 활용합니다. Google AI Studio: 개인적인 아이디어를 빠르게 프로토타...

    argo9.com

    는 문서 자체가 json을 사용해서 자체 DB가 계속 추가되는 형태로 만든 프로젝트를 분리해서 어떤 사이트에도 사용가능하게 한 장짜리 HTML로 만드는 프로젝트를 기반으로 하고 있습니다. 자기가 자기를 복제해서 늘려가고 수정하는 wiki + llm으로 자체적으로 키워드, 태그, 문서 작성의 귀찮은 부분을 추가적으로 넣을 수 있게 해놓기는 했습니다.

    워드프레스를 다 치우고 다른 형식으로 vitepress 나 docusaurus 비슷한데 https://mdxeditor.dev/ 를 적용 중입니다. 일하러 갑니다.

    옵시디언으로 편집하실 수 있게 md 파일 다운로드가 가능합니다. md 파일이 있으면 Epub을 쉽게 만들 수 있습니다. 그건 곧 올리도록 하겠습니다.

    생산성이 올라가면서 이 콘텐츠는 누구의 것이지?라는 생각이 자주 듭니다.

    https://argo9.com/ai/

    AI와 함께 출판 AI 무료 사이트 정리

  • AI시대 사람은 무엇을 사는가? 복제놀이
    adminA admin

    나노바나나 열풍뒤에 갑자기 공포에 사로잡힌 사람들에게... 하나 알려드릴께요

    548075176_32057942830456593_4528670258069071209_n.jpg?_nc_cat=104&ccb=1-7&_nc_sid=127cfc&_nc_ohc=Yl254IOunwkQ7kNvwEvZhKE&_nc_oc=Adl7WOPBoOrjYd3sDTZo-lPT8inwW9OXE0Ju1ursCqJiOj1wzjxDqRwHSNyV-Et49uE&_nc_zt=23&_nc_ht=scontent-ssn1-1.xx&_nc_gid=PWgfv-XWlsq4bVomYkRVPA&oh=00_AfZetZQRtEVBRmx45TrDX2l-YuDAMjkZxCn2syggV_omyg&oe=68D00BA7

    인터넷에서 뚝딱 이라고 특히 유튜버들이 올리는거... 라이브 아니면 믿지마세요...프롬프트 수정하고 바꾸고 또 수정하고 바꾸고 내가 대체 입력기인가? 라는 생각을 하게 됩니다.

    548324675_32057944270456449_9183210933239940852_n.jpg?_nc_cat=105&ccb=1-7&_nc_sid=127cfc&_nc_ohc=7HJFyj2rNIsQ7kNvwF9sUtH&_nc_oc=AdnphytpTMSKFiCvRdyFRavTpAAESbycAaje73SMTRidkrPf5v-HyNTsxkLMj5GpUYg&_nc_zt=23&_nc_ht=scontent-ssn1-1.xx&_nc_gid=PWgfv-XWlsq4bVomYkRVPA&oh=00_AfZmDIRzLPb7dPQg19_OcOKDqwaTPGcrYDDuecNX1kWRiA&oe=68CFECF4

    아주 디테일하게 설명을 하기 시작하면 원하는 것을 안해주기도해요...

    548230183_32059544136963129_4886372958809886762_n.jpg?_nc_cat=108&ccb=1-7&_nc_sid=127cfc&_nc_ohc=r8Go4LCyJJ0Q7kNvwG-oDgs&_nc_oc=Adn3zrHCB3pZFIpq_fSLqa-sDCHQOFPOMjD14muy9QO8TB1XTsWIO3Kwjyzqe7y_Q8Q&_nc_zt=23&_nc_ht=scontent-ssn1-1.xx&_nc_gid=WjyTh5WTcmncpYqY5WiF2w&oh=00_AfbyMy5V1nVP0sWQEPKke9_GRFeK60dvOHvlHJWOoUjlFA&oe=68D019AA 완전히 다 그린 그림을

    548211684_32057736837143859_5416173096364281183_n.jpg?_nc_cat=110&ccb=1-7&_nc_sid=127cfc&_nc_ohc=n0EW4sgoT9wQ7kNvwEsdzCV&_nc_oc=Adm-gC6a9dKuwuo6NGANit6JhcyyeUcdNsMA5ggIkeCuhchCPNPcgULFG3fXePmKaMI&_nc_zt=23&_nc_ht=scontent-ssn1-1.xx&_nc_gid=WjyTh5WTcmncpYqY5WiF2w&oh=00_AfZuFajIoYZuWFhIEPWn5eOsJL7M-YKRtIaMDH6gv5TV9Q&oe=68D01A94 3D로 만들어 달라고 하면 잘 만들어요.

    나노바나나는 제가 그린 그림을 프롬프트 카메라 렌즈 모델 포커스 그리고 3D로 요청한 각도 그대로 만들어주네요... 그나저나 모바일에서는 이렇게 노란기운이 안들어가있는데... 이제 그냥 AI 도움 받기로 했어요. 현재 voxel + three.js 로 만든 구도 잡아주면 카메라 렌즈로 보는 툴 위에 제가 그린 만화를 업로드 하고 각도, 배경, 렌즈, 효과를 적용해서 전부 3D로 만들어 달라고 하고 있습니다.

    사실 만화를 제작하는데 어려운 것도 고민될 것도 없으며 이제 이 전에 만들어두었던 스틱맨을 더 간단히 만들면 지난 기간 동안 말풍선 만드는 것과 효과, 격자 집중선 등을 붙이면 될거 같습니다.

    Gemini_Generated_Image_l65j6ol65j6ol65j.png

    일관성이 있는 모습으로 캐릭터가 만들어지는 것은 앞으로 가능성이 더 커졌다는 것이죠? 하지만 시간낭비할 준비도 해야합니다.

    547766338_32058836310367245_2630246239151467225_n.jpg?_nc_cat=100&ccb=1-7&_nc_sid=833d8c&_nc_ohc=k6v_jKKbQCQQ7kNvwFUOIYQ&_nc_oc=AdmH7nZ0Kh70dtHOp9XQt8L7X2VcXnrE4WgoQlc9y_xSyCV2n4p5mtBCVrrDoBy5jnE&_nc_zt=23&_nc_ht=scontent-ssn1-1.xx&_nc_gid=_3jMZkYQyrszllZPwtvgNQ&oh=00_AfaxWcUtQdXbfMtSm2U1WWRylw_Fs1hHV6MX-nU582OOvg&oe=68D001FE 원화가 2.5차원인경우

    548536479_32058748613709348_532833661119792242_n.jpg?_nc_cat=102&ccb=1-7&_nc_sid=833d8c&_nc_ohc=SubdQgQzaOEQ7kNvwEFiTHG&_nc_oc=Adn3AKce93JQNne3hJm7dbKeMnI9zgL_IIsvWwISBx4ZyNEC-WwTl92D0ESAj2mJb_w&_nc_zt=23&_nc_ht=scontent-ssn1-1.xx&_nc_gid=WUcKmcXd2uPvwfhe81F3Gw&oh=00_AfYdTVpV346r5Uvqsw7x8aI08neZSFiLWyFXGigr2Hg3VQ&oe=68CFEDC0 논리적으로 생각을 못하는 그림이 나옵니다.

    아직까지 민화스타일은 제대로 표현하지 못하지만 앞으로 데이터가 쌓이면 더 나은 결과가 나오겠죠? 어느덧 3년전이네요...

    549290547_32059808843603325_791999405851453255_n.jpg?_nc_cat=106&ccb=1-7&_nc_sid=127cfc&_nc_ohc=cyZr-Kx-3DwQ7kNvwHFvdR5&_nc_oc=Adl0PSUcoBGYw-zvzhA8pGN1uezq5f4HgPiAworkP_6FYjH4GUMT4z2fTYC7oR5cOrY&_nc_zt=23&_nc_ht=scontent-ssn1-1.xx&_nc_gid=J5zAVvZ0xAs_LpkeWBr0MQ&oh=00_AfYrGE0kcQQA-ar9Lja1iMu2NljfQMI-IeKwCHFnCMBSBQ&oe=68D01458

    548092630_32059804270270449_1077836951016457362_n.jpg?_nc_cat=101&ccb=1-7&_nc_sid=127cfc&_nc_ohc=HBlWd_EKJ7MQ7kNvwH-zeOR&_nc_oc=AdmvZu5MiZzLzRQ7YfBo2PfrRElu_O83OuEVSm77vif6yth-u-Gw2SnYJTBbSafnzyY&_nc_zt=23&_nc_ht=scontent-ssn1-1.xx&_nc_gid=GQczgrSz8_2nfKC1svymhA&oh=00_AfaOxqzDOVSgmV8E8RdzoOf5jzxIMC4526_4RyRxKIeffw&oe=68CFF0FB

    아바타처럼 로봇의 조각부품을 만들어 넣고 프롬프트로 동작을 하게 지정하면 실제로 퍼스펙티브 가이드가 나오는 로봇 그리기 그림연습용 가이드가 완성됩니다. 이 프롬프트를 그대로 가져다 다시 넣으면 건담+에바 이 달려갑니다. 응?!? 아이들용으로 그림연습을 할 수 있는 툴로 하루 무료 API 사용량을 쓰면 재미있는 웹툰만들기가 됩니다. 이 몇가지를 10분만에 다 했습니다. 효율성이 높아지지만 쓸모가 없어요... 그냥 이렇게 할 수 있다 정도입니다.

    어른이 학습지 어른템풀 초간 AI 창간 - 오늘도 프롬프트 바이브코딩

    https://www.argo9.com/

    가계부|재테크 AI 시대 사람 복제 놀이

  • 바이브코딩 100가지만 해보자! 200개 넘음
    adminA admin

    책 3D 시뮬레이터 - 링제본용

    만든것을 빨리 빨리 공유하려고 합니다. 이유는 100가지를 만들고 서비스화 하는 목적은 아니고 일단 이런것도 할 수 있다. 라는 것을 계속 해보고자 합니다.

    바이브코딩 책을 출간할 생각으로 100가지나 해보자 였는데 갈수록 더 많이 만들게 되어서 일을 안하게 된게 지금까지 온거 같습니다. ^^

    https://3d.a1bbs.com/ringbind2/

    � 제본 타입 제본 방식 스프링 색상 링 개수: 23 개 링 크기 (직경): 0.5 cm 철사 굵기: 0.8 mm 실제 철사 두께 (mm 단위) 바인딩 위치 용지 설정 앞표지 색상 뒷표지 색상 표지 두께 (그램) 내지 두께 (그램) 내지 색상 특수 옵션 싸바리 작업 커버형 스프링 � 귀돌이 설정 모서리 라운딩 (귀돌이) 설정 초기화 기본값으로 초기화 앞표지 업로드 뒷표지 업로드 책등 업로드 링 위치 조정 링 위치 위쪽 아래쪽 왼쪽 오른쪽 링 오프셋: 0 mm -20mm 0mm +20mm 링 위치 초기화

    3d.a1bbs.com

    %EC%8A%A4%ED%81%AC%EB%A6%B0%EC%83%B7_2025-09-15_%EC%98%A4%EC%A0%84_8.23.10.png?type=w1600

    548215671_32029524219965121_8145316383860659104_n.jpg?_nc_cat=110&ccb=1-7&_nc_sid=127cfc&_nc_ohc=xIWNLaBvnOkQ7kNvwGSOqnI&_nc_oc=AdmVfK6VQnvFLHUYpfZxgbt0TPS6C1DfSejmKclq5rh1pkPO5UuuQM-Gj0w6YNrHHKU&_nc_zt=23&_nc_ht=scontent-ssn1-1.xx&_nc_gid=xHFQKu1NZtrebsdrgNG0-Q&oh=00_AfZ2QbNeSOq3AIdTnr9YUrVAbsK4nTiGU3tDv6N_GxhgiA&oe=68CD0032

    그리드픽스도 오픈했습니다. https://grid.a1bbs.com/ 격자로 명화를 나눠주는 다빈치격자법을 쉽게 해보실 수 있습니다. 그림을 잘 그리기 위해서는 수학의 도형 즉 삼각형이 필요해요... 다음은 더 잘그리기 위한 퍼스펙티브 2점, 3점 찾아주는 프로그램도...

    앞으로 상세하게 책의 부록으로 제공할 예정입니다.

    그리고 책공장 외부페이지에도 출판관련 뉴스를 아예 모아서 올릴 예정입니다. 그동안 책공장에서 고민만하고 이야기 안한 것들 특히 정보를 수집하고 지원금이 나오는 프로젝트, 본인이 만드는 것 그리고 책공장에 회원들이 내 작업을 공유하는 것을 이곳에 연결하면 전세계로 퍼트리는 Fediverse 용으로 제작했습니다.

    https://bookfactory.kr/

    잡다한 링크도 퍼트리면 레딧처럼 익명 커뮤니티로 사용할 수 있습니다.

    만들기 바이브코딩 100가지만 해보자 가이드
  • 1
  • 2
  • 3
  • 4
  • 5
  • 1957
  • 1958
  • 1 / 1958
  • 로그인

  • 계정이 없으신가요? 등록

  • 검색하려면 로그인하거나 등록하세요.
  • 첫 게시물
    마지막 게시물
0
  • 카테고리
  • 최근
  • 태그
  • 인기
  • 사용자
  • 그룹
$(document).ready(function () { app.coldLoad(); }); }