프로바이더 설정
AI 프로바이더 설정 및 모델 구성 가이드
기본 설정 (Ollama)
AIRGAP Studio는 기본적으로 로컬 Ollama 서버의 Qwen3:8b 모델을 사용합니다. 별도의 설정 없이 바로 사용할 수 있습니다.
기본 연결 정보
| 항목 | 값 |
|---|---|
| 프로바이더 | AIRGAP Ollama |
| 모델 | qwen3:8b |
| 서버 URL | http://localhost:11434 |
| API 키 | 불필요 |
프로바이더 변경
네트워크가 허용되는 환경에서는 외부 AI 프로바이더로 전환할 수 있습니다.
지원 프로바이더
| 프로바이더 | 설명 | API 키 필요 |
|---|---|---|
| AIRGAP Ollama | 로컬 LLM (기본값) | 불필요 |
| Anthropic | Claude 모델 | 필요 |
| OpenAI | GPT 모델 | 필요 |
| Google Gemini | Gemini 모델 | 필요 |
설정 방법
- AIRGAP Assistant 패널을 엽니다.
- 상단의 설정(기어 아이콘)을 클릭합니다.
- API Provider 섹션에서 원하는 프로바이더를 선택합니다.
- API 키가 필요한 경우 해당 필드에 입력합니다.
- 모델 ID를 확인하고 필요시 변경합니다.
API 키 설정
외부 프로바이더를 사용하려면 API 키가 필요합니다.
# Anthropic
API 키 형식: sk-ant-xxxxx
# OpenAI
API 키 형식: sk-xxxxx
# Google Gemini
API 키 형식: AIzaxxxxx
보안 참고: API 키는 로컬 IDE 설정에만 저장되며, 외부로 전송되지 않습니다. 에어갭 환경에서는 API 키를 설정해도 네트워크가 차단되어 작동하지 않습니다.
AIRGAP Designer 모델 설정
AIRGAP Designer는 별도의 모델 설정을 사용합니다.
설정 경로
Ctrl+,로 설정을 열고 airgapDesigner를 검색하세요.
| 설정 키 | 설명 | 기본값 |
|---|---|---|
airgapDesigner.ollamaUrl | Ollama 서버 URL | http://localhost:11434 |
airgapDesigner.ollamaModel | 사용할 모델 | qwen3:8b |
클라이언트-서버 모드
GPU가 장착된 별도 서버에서 Ollama를 실행하고, AIRGAP Studio가 설치된 클라이언트에서 원격으로 연결할 수 있습니다.
{
"airgapDesigner.ollamaUrl": "http://192.168.1.100:11434"
}
AIRGAP Bridge도 Designer와 동일한 Ollama 설정을 공유합니다. Designer의 URL과 모델을 변경하면 Bridge에도 자동 적용됩니다.
모델 변경 후 확인
프로바이더나 모델을 변경한 후에는 간단한 테스트를 수행하여 연결 상태를 확인하세요.
- AIRGAP Assistant에서 "안녕하세요"를 입력합니다.
- 응답이 정상적으로 생성되는지 확인합니다.
- 오류가 발생하면 설정 값과 서버 상태를 점검합니다.