AI 번역용 MCP 서버
언어 번역을 위해 특별히 개발된 최초의 MCP 서버. Claude Desktop, Cursor, Windsurf, Cline 및 모든 MCP 호환 IDE에서 200개 이상의 언어로 엔터프라이즈급 상황 인식 번역 기능을 제공합니다. 맞춤형 API 통합이 필요하지 않습니다.
AI 번역을 위한 유니버설 브리지
Model Context Protocol(MCP)을 사용하면 Lara Translate를 좋아하는 AI 어시스턴트의 기본 도구로 만들 수 있습니다. AI 어시스턴트가 전체 문맥을 고려하여 코드, 문서, 채팅을 자동으로 번역할 수 있도록 하세요.
범용 AI 호환성
모든 MCP 호환 애플리케이션과 네이티브 통합 가능. 귀사 도구의 config 파일에 Lara 서버를 추가하고 AI에게 즉시 번역하도록 요청하기만 하면 됩니다.
컨텍스트 프로토콜 표준
개방형 Model Context Protocol을 기반으로 구축되었습니다. 맞춤형 API 호출을 다시 작성할 필요 없이, 미래 지향적인 통합을 구현하고 새로운 AI 클라이언트와 함께 Lara를 사용하세요.
AI 기반의 의미 해소
AI는 사용자의 로컬 파일이나 채팅 컨텍스트에 액세스할 수 있으므로, 관련 컨텍스트 메타데이터를 Lara에 자동으로 제공하여 완벽하게 정확한 번역을 보장합니다.
제로 데이터 교육 정책
고객님의 번역은 Lara API로 안전하게 전달됩니다. 당사는 엄격한 데이터 개인 정보 보호 정책을 시행합니다. 즉, 고객사의 독점 문자열은 공개 모델 훈련에 절대 사용되지 않습니다.
200개 이상의 언어에 액세스
귀사의 AI가 200개 이상의 언어로 현지화된 콘텐츠를 생산급 수준의 안정성으로 이해하고 생성할 수 있도록 지원하세요.
파일 형식 처리
MCP를 통해 통합되므로, AI는 HTML, Markdown, 또는 JSON 파일을 읽고, Lara에게 원시 문자열을 번역하도록 요청한 후 파일을 깔끔하게 다시 작성할 수 있습니다.
Lara Translate를 AI 어시스턴트 또는 IDE에 연결하는 방법
하나의 구성 블록. Claude Desktop, Cursor, Windsurf, Cline 및 모든 MCP 호환 클라이언트에서 작동합니다.
MCP 클라이언트 구성
선택한 도구(예: Claude Desktop)의 JSON 구성 파일을 열고 Lara 서버 매핑을 추가하세요.
"lara-translate": {
"command": "npx",
"args": [
"-y",
"@translated/lara-mcp@latest"
],
"env": {
"LARA_ACCESS_KEY_ID": "<LARA_ACCESS_KEY_ID>",
"LARA_ACCESS_KEY_SECRET": "<LARA_ACCESS_KEY_SECRET>"
}
}
번역 시작하기
클라이언트 애플리케이션을 다시 시작하세요. 이제 AI의 컨텍스트 창에 Lara Translate 도구가 표시됩니다. 다음 명령어를 입력하시면 됩니다: “Translate this file to French”.
Lara MCP 문서에서 사용 가능한 모든 도구(translate, list_memories, create_memory, list_glossaries)를 확인하세요.