Obsidian Copilot 플러그인을 설치하고 ollama에 Local LLM을 연동해 Obsidian + Local LLM을 사용해보았다. chatgpt도 연동할 수 있지만 Obsidian 노트를 클라우드 ai에 연동시키기에는 내 머리는 통째로 열어주는 것 같아서 부득이하게 PC에 설치하는 버전을 사용했다.
최근 chatgpt의 업데이트 이후 감동을 받아서 뭔가 새롭고 더 나은 걸 해보고 싶어서 시도해보았는데 결과적으로 별 성과가 없다.
사용하는 데스크탑의 사양이 3060ti밖에 되지 못해서 작은 모델을 사용했기 때문일수도 있지만 근본적으로 해당 앱이 Vault 내의 여러 노트간의 컨텍스트를 잘 이해하지 못하고 있다.
Obsidian의 바닐라 상태에서 이미 그래픽뷰와 백링크가 주요 기능인만큼 노트간에 링크가 이리저리 얽혀있고, 나는 Dataview를 통해서 여러 필터링을 동시에 적용할 수 있는 검색 시스템을 갖춰놓았기 때문에 LLM을 얹어서 기존의 노트 간 연결 이상의 새로운 아이디어를 찾아주길 원했다.
Obsidian Copilot 플러그인에서는 단일 노트에 적용되는 채팅과 볼트를 검색할 수 있는 모드, 그리고 추후 유료로 제공할 Copilot Plus가 있는데 기본 채팅은 잘 작동하지만 채팅 결과를 바로 노트로 붙여넣을 수 있다는 점 빼고는 별 다른 장점이 느껴지지 않는다. 상술한 것처럼 볼트 내 노트들을 엮어 질문하는 건 불만족스러웠다. 코파일럿 플러스는 아직 미출시.
공개해도 되는 볼트에 chatgpt를 연동해 사용해보고 또 의견을 남기겠지만 평소에 AI에게 도움을 받는것 이상의 기대는 가지지 않는게 좋겠다.
레딧에서 얻은 아이디어인데 옵시디언 md파일을 라마인덱스에 얹어 RAG를 적용해보는게 더 낫지 않을까 싶기도 하다.