모델
Mistral

프랑스 스타트업 Mistral AI가 만든 오픈 웨이트 LLM 시리즈. 크기 대비 성능이 뛰어나 "작지만 강한 모델"의 대표 주자로 자리잡았다.

개념 설명

Mistral 7B는 2023년 출시 당시 같은 크기의 Llama 2를 압도하며 주목받았다. Sliding Window Attention, Grouped Query Attention 등 효율적인 아키텍처를 적용해 크기 대비 성능을 극대화한다. 이후 Mixtral(MoE 모델), Mistral Large, Codestral(코드 특화), Pixtral(멀티모달)로 라인업을 확장했다.

사용 예시

Mistral API를 직접 호출하거나, HuggingFace에서 오픈 웨이트 버전을 받아 vLLM으로 서빙할 수 있다. Mixtral은 MoE 구조라 전체 파라미터는 크지만 추론 시 일부만 활성화되어 빠르다. 유럽 데이터 주권이 중요한 프로젝트에서 EU 기반 모델이라는 점도 선택 이유가 된다.

#프랑스#오픈소스#효율
← AI Wiki에서 더 보기