A QNAP Systems anunciou o lançamento do Edge AI Storage Server, uma plataforma de computação edge tudo-em-um destinada a empresas que procuram implementar as suas próprias infraestruturas de inteligência artificial. A solução integra armazenamento, virtualização e aceleração por GPU num único sistema.
A solução Edge AI Storage Server da QNAP foi concebida para responder a preocupações crescentes com a soberania dos dados, o desempenho e os custos operacionais associados à utilização de serviços de IA na nuvem. A proposta da QNAP foca-se na criação de uma infraestrutura local para cenários como a inferência de modelos, a produção industrial e a análise de vídeo.

QNAP Edge AI Storage Server: integração de hardware e virtualização
O Edge AI Storage Server combina as funções de armazenamento de dados e de computação num único chassis. A plataforma suporta a instalação de unidades de processamento gráfico (GPUs) para acelerar cargas de trabalho de IA e permite a alocação de recursos de hardware a máquinas virtuais (VMs).
Para otimizar o desempenho em ambientes virtualizados, o sistema utiliza tecnologias como passthrough de GPU e PCIe, e SR-IOV para a rede. Segundo a empresa, estas funcionalidades permitem que as máquinas virtuais atinjam um desempenho próximo do nativo. A solução é compatível com o software da QNAP, Virtualization Station e Container Station, para a gestão de VMs e contentores.
O foco na IA deixou de ser apenas a criação de modelos e passou a ser a construção da infraestrutura certa. Para as empresas que adotam LLMs, IA generativa ou virtualização, o que realmente importa é ter uma plataforma que possa lidar com grandes conjuntos de dados, salvaguardar a sua segurança e proporcionar um desempenho fiável. O nosso Edge AI Storage Server é mais do que apenas armazenamento. Ele reúne recursos de inferência de IA, virtualização e backup para ajudar as empresas a implementar a IA de forma segura e flexível.
CT Cheng, Gestor de Produto da QNAP
Implementação de modelos e segurança
Uma das principais finalidades do servidor é permitir que as empresas executem grandes modelos de linguagem (LLMs) e outros modelos de IA internamente. Esta abordagem local evita a transmissão de dados sensíveis para a nuvem, um fator relevante para setores com regulamentação estrita, como o financeiro ou o da saúde.
Para simplificar a adoção, a plataforma facilita a implementação de modelos de código aberto, como LLaMA, Qwen ou Gemma, através da ferramenta Ollama. Isto permite que as organizações desenvolvam aplicações internas, como chatbots ou sistemas de pesquisa de conhecimento, com um maior controlo sobre os seus dados e a sua infraestrutura.
A QNAP apresenta o Edge AI Storage Server como uma solução integrada para empresas que pretendem desenvolver as suas capacidades de IA no local. O sistema combina hardware e software para responder a necessidades de desempenho, segurança e conformidade, oferecendo uma alternativa à dependência de plataformas de nuvem pública para cargas de trabalho de inteligência artificial.
Outros artigos interessantes: