일한번역에 YanoljaNEXT-Rosetta-27B나 Translategemma 등 로컬모델 성능이 많이 올라온 것 같아서
요즘 gemini 인쓰고 Ollama 로컬 번역으로 갈아탔음
검열도 전혀 없고 번역자체도 딸깍이라 편함 검수 자체도 청크 기반에 전부 저장되서 엄청 편하고 오류 있으면 자동 재번역 가능
물론 Vram 높은 GPU가 있어야한다는 단점이 있는데
연구실이나 사무실 PC에 Tailscale 연동해두면 API 딸깍으로 회사 PC로 번역할 수 있어 좋음 코드 커스터마이징도 엄청 쉽고
기본 원리는 txt 파일들 100줄 단위로 chunk로 쪼갠뒤에
Translator++ 랑 같은 원리로 쯔익으로 추출한 txt 파일에 Place holder를 통해 ---- 나 \n[] 같은걸 대체해두고
번역 완료후 덮어씌움 & placeholder 갯수가 다르면 재번역 시키는 구조
Gemini 쌀먹 동나고 무료 api 쓰다가 검열 때문에 암걸려서 만들었는데
사실 비슷한거 많고 Ollama 세팅해서 쓰는 사람 정도면 걍 Gemini 딸깍으로 자기한테 맞게 코드짤 수 있어서 수요가 있을지 모르겠네
