레드햇, AI 포트폴리오 강화
레드햇 AI 인퍼런스 서버, 검증된 모델 및 라마 스택과 모델 컨텍스트 프로토콜의 통합을 통해 더 높은 성능의 일관된 AI 애플리케이션 및 에이전트를 구현하도록 지원한다.

Credit: Michael Vi/Shutterstock
오픈소스 솔루션 기업 레드햇이 레드햇 서밋 2025(Red Hat Summit 2025)에서 레드햇 AI 인퍼런스 서버(Red Hat AI Inference Server), 레드햇 AI 서드파티 검증 모델 및 라마 스택(Llama Stack)과 모델 컨텍스트 프로토콜(Model Context Protocol, MCP) API 통합 등 엔터프라이즈 AI 포트폴리오 전반에 걸친 주요 업데이트를 발표했다. 이를 통해 기업이 하이브리드 클라우드 환경에서 생성형 AI 제품을 배포할 때 선택권을 지속적으로 확대한다는 방침이다.
포레스터에 따르면 오픈소스 소프트웨어는 기업 AI 활동을 가속화하는 핵심 요소다. AI 환경이 점점 더 복잡하고 역동적으로 성장하고 있는 가운데, 레드햇 AI 인퍼런스 서버 및 서드파티 검증 모델은 효율적인 모델 추론과 레드햇 AI 플랫폼의 성능에 최적화된 검증 AI 모델 컬렉션을 제공한다. 여기에 더해 레드햇은 라마 스택 및 MCP를 비롯한 생성형 AI 에이전트 개발을 위한 신규 API 통합을 통해 배포 복잡성을 줄이고 높은 제어력과 효율성으로 AI 이니셔티브를 가속화할 수 있도록 지원한다.
레드햇 AI 포트폴리오에는 새로운 레드햇 AI 인퍼런스 서버가 포함돼 있다. 이 서버는 하이브리드 클라우드 환경 전반에서 더 빠르고 일관되며 비용 효율적인 추론을 대규모로 제공하도록 설계됐다. 이 핵심 기능은 레드햇 오픈시프트 AI(Red Hat OpenShift AI) 및 레드햇 엔터프라이즈 리눅스 AI(Red Hat Enterprise Linux AI, RHEL AI)의 최신 출시에 통합됐으며, 독립형 솔루션으로도 제공돼 지능형 애플리케이션의 배포 유연성과 성능을 높일 수 있다.
허깅페이스(Hugging Face)에서 제공되는 레드햇 AI 서드파티 검증 모델은 기업이 특정 요구사항에 적합한 모델을 쉽게 찾을 수 있도록 지원한다. 레드햇 AI는 모델 성능 및 결과 재현성(reproducibility)에 대한 고객 신뢰를 높이기 위해 검증된 모델 컬렉션과 배포 가이드를 제공한다. 레드햇으로 최적화된 일부 모델은 모델 압축 기술을 활용해 크기를 줄이고 추론 속도를 높여 자원 소비와 운영 비용을 최소화한다.
레드햇 AI는 메타가 처음 개발한 라마 스택과 앤트로픽의 MCP를 통합해 사용자에게 AI 애플리케이션 및 에이전트 구축과 배포를 위한 표준화된 API를 제공한다. 현재 레드햇 AI에서 개발자 프리뷰로 제공되는 라마 스택은 모든 생성형 AI 모델 전반에서 vLLM 추론, 검색 증강 생성(Retrieval-Augmented Generation, RAG), 모델 평가, 가드레일 및 에이전트 기능에 액세스할 수 있는 통합 API를 제공한다. MCP는 API, 플러그인, 데이터 소스를 연결하는 표준 인터페이스를 제공함으로써 에이전트 워크플로우에서 외부 도구와의 통합을 지원한다.
IDC 리서치 매니저 미셸 로젠은 “기업은 초기 AI 탐색 단계를 넘어 실용적인 배포에 집중하고 있다. 그들의 지속적인 성공 핵심은 다양한 환경과 요구에 맞게 AI 전략을 유연하게 조정할 수 있는 능력에 달려 있다. AI의 미래는 단지 강력한 모델뿐만 아니라 능동적이고 비용 효율적으로 배포할 수 있는 모델을 필요로 한다. AI 이니셔티브를 확장하고 비즈니스 가치를 실현하려는 기업에 이런 유연성은 필수적이다”라고 말했다.
문제가 될 시 삭제하겠습니다.