A QNAP anunciou hoje o lançamento da sua solução inovadora, o Edge AI Storage Server, uma plataforma de computação edge tudo-em-um concebida para enfrentar os crescentes desafios de desempenho, soberania de dados e custos operacionais que as empresas enfrentam com a rápida expansão das aplicações de inteligência artificial em todos os sectores. Esta nova oferta da QNAP visa acelerar a implementação de IA no local e a transformação digital, capacitando as empresas para aplicações de IA on-premises com uma relação custo-benefício altamente vantajosa.
A solução Edge AI Storage Server da QNAP integra armazenamento de dados, virtualização, aceleração GPU e gestão de recursos de sistema, permitindo que as empresas construam infraestruturas de IA robustas no local. Esta capacidade é crucial para diversos cenários, incluindo armazenamento de dados de IA, inferência de modelos, produção inteligente e análise de vídeo, ao mesmo tempo que mitiga os riscos de segurança comuns e os custos de licenciamento frequentemente associados à implementação na nuvem. A plataforma é particularmente adequada para escritórios inteligentes, produção, retalho e ambientes de vigilância, dada a sua flexibilidade na implementação de máquinas virtuais e aplicações em contentores para grandes modelos de linguagem (LLM) privados e cargas de trabalho de IA.
CT Cheng, Gestor de Produto da QNAP, sublinhou a mudança de paradigma no foco da IA. “O foco na IA deixou de ser apenas a criação de modelos e passou a ser a construção da infra-estrutura certa”, afirmou Cheng. Ele acrescentou que, para as empresas que adoptam LLMs, IA generativa ou virtualização, a chave é ter uma plataforma que possa gerir grandes conjuntos de dados, salvaguardar a segurança e proporcionar um desempenho fiável. Cheng destacou que o Edge AI Storage Server da QNAP vai além do mero armazenamento, reunindo recursos de inferência de IA, virtualização e backup para permitir uma implementação de IA segura e flexível.
Entre as principais vantagens do QNAP Edge AI Storage Server, destacam-se a segurança e conformidade melhoradas, que permitem o armazenamento e a execução de modelos de IA/LLM e dados confidenciais inteiramente no local. Esta abordagem evita a transmissão na nuvem e apoia a conformidade com regulamentos específicos da indústria, tornando-o ideal para sectores como o financeiro, a saúde e a produção.
A plataforma integrada oferece um custo total de propriedade (TCO) mais baixo, combinando armazenamento, virtualização, aceleração GPU e protecção de dados num único sistema, o que simplifica a implementação e reduz os custos de manutenção a longo prazo. Além disso, o servidor proporciona uma alocação precisa de recursos, suportando passthrough de GPU e PCIe, e SR-IOV para optimização da rede, bem como o isolamento do CPU (a ser suportado em breve), garantindo um desempenho de máquinas virtuais quase nativo com baixa latência e alta estabilidade.
A compatibilidade com a Virtualization Station e a Container Station da QNAP facilita a virtualização e a implementação de contentores, permitindo a rápida adopção de diversos ambientes de IA para implementação de modelos, desenvolvimento de aplicações inteligentes ou backup de servidores de máquinas virtuais. A QNAP também enfatiza a implementação simples e aberta de LLM, com suporte para modelos de código aberto como LLaMA, DeepSeek, Qwen e Gemma através do Ollama, o que reduz a barreira à adopção da IA para pesquisa de conhecimento interno, chatbots ou desenvolvimento de ferramentas de IA.