개발 기반은 파이썬.
LM STUDIO를 비롯한 API Endpoint를 제공하는 로컬 번역 모델을 Xunity.AutoTranslator 등에 연결해줄 수 있는 async 대응 브릿지 서버임.
BepInex에는 짱깨가 만든 autollmtranslator 라는 플러그인이 있긴 한데 그냥 연결만 해주고 땡이라서 번역 퀄리티를 높일 수 있는 직접적인 부가 기능들을 구현해서 넣어보고 있음.
버전업 계속 해 나가다 보니 이제 0.7.4 버전이 됐는데 솜붕이라면 누구나 좋아할 숫자인 거 같아서 최초 배포때도 이 숫자로 동결할거임 ㅋㅋ
헤비 업로더 솜붕이가 달아준 댓글에 전구가 켜져서 초기버전 떄 보다 기능을 좀 더 추가해봤는데 기본적인 로컬 모델에 적용되는 변수는 다 들어갔고,
개인적으로 인명 사전 추가하고 캐릭터별로 페르소나 지정해주는 기능이 제일 만들어놓은 보람이 있는 거 같다. 프리셋으로 어지간한 씹덕 속성은 다 넣음.
성격 프리셋
말투 프리셋
특수속성 프리셋. 얘는 칸이 모자라서 스크롤 해야 더 나온다 ㅋㅋ
(대충 너희가 뭘 좋아할지 몰라서 블라블라...)
참고로 직접 입력해도 됨
.
저렇게 페르소나를 캐릭터 이름에 각인시키면 프롬프트와 함께 AI 모델에게 컨셉을 매 번역요청 마다 전달하는 방식임.
해당 캐릭터의 대사가 나왔을 때 모델이 특정인물이라고 유추할 수 있게 배경을 깔아주는거지.
그 외에는 문장부호를 유지하고 AI가 날려먹으면 복구하는 기능이나 번역을 안하고 헛소리를 뱉었을때 자동으로 혼내면서 다시 시키는 기능 정도.
각 기능 별로 아주 친절한 설명충을 팝업으로 알려주게끔 젬마를 갈궈서 덧붙여 놨고, 오늘 실전 테스트 해보고 여기서 보급해 볼 생각임.
대충 이 정도면 에로게 번역에 도움 될 만한 요소는 꽤 많이 쑤셔박은 거 같은데 그래픽카드 VRAM 8기가 이상 붙어있는 솜붕이들이들이라면
부담 갖지 않고 LLM 모델 츄라이츄라이 하는 계기가 됐으면 좋겠네. 최대한 빨리 테스트해서 배포 모델은 간단한 사용법 강의와 함께 들고 올게.
로그 보면 번역모델이 빈칸을 출력했지만 Temperature값을 올려가면서 계속 갈궈서 세번만에 번역문을 받아내는 걸 확인할 수 있음.
속도에 특화된 Aya-expanse 8B Abliberated i1 모델인데 오토 모드에 텍스트 속도 가장 빠름 상태에서도 번역 속도가 쫓아가는 모습.
* 마사지점 전작인 NTR도장도 이 방식으로 딸깍질에 이미지 번역 합쳐서 작업할 예정임.
** 그 외에는 댓글로 추천 받았던 욕망의 꼬리...좀 고민중인데 주름살은 나 좀 많이 버거운데.......
일러스트 회춘 패치 누가 올려줄 수 없음? ㅠㅠ 눈갱만 어떻게 해줘도 의욕넘치게 작업할 수 있을 거 같은데
